Error系列的指标及loss损失函数,该系列有:
- 均方误差(Mean Square Error,MSE)
- 平均绝对误差(Mean Absolute Error,MAE)
- 均方根误差(Root Mean Square Error,RMSE)
- 均方对数误差(Mean Squared Log Error)
- 平均相对误差(Mean Relative Error,MAE)
这次讲一下平均绝对误差(Mean Absolute Error,MAE)的原理介绍及MindSpore的实现代码。
一. 平均绝对误差(Mean Absolute Error,MAE)介绍
平均绝对误差指的就是模型预测值 f(x) 与样本真实值 y 之间距离的平均值。其公式如下所示:
为了简化讨论,忽略下标 i,m = 1,以 y-f(x) 为横坐标,MAE 为纵坐标,绘制其损失函数的图形:
直观上来看,MAE 的曲线呈 V 字型,连续但在 y-f(x)=0 处不可导,计算机求解导数比较困难。而且 MAE 大部分情况下梯度都是相等的,这意味着即使对于小的损失值,其梯度也是大的。这不利于函数的收敛和模型的学习。
值得一提的是,MAE 相比 MSE 有个优点就是 MAE 对离群点不那么敏感,更有包容性。因为 MAE 计算的是误差 y-f(x) 的绝对值,无论是 y-f(x)>1 还是 y-f(x)<1,没有平方项的作用,惩罚力度都是一样的,所占权重一样。针对 MSE 中的例子,我们来使用 MAE 进行求解,看下拟合直线有什么不同。(我们先用numpy举一下例子。)
X = np.vstack((np.ones_like(x),x)) # 引入常数项 1
m = X.shape[1]
# 参数初始化
W = np.zeros((1,2))
# 迭代训练
num_iter = 20
lr = 0.01
J = []
for i in range(num_iter):
y_pred = W.dot(X)
loss = 1/m * np.sum(np.abs(y-y_pred))
J.append(loss)
mask = (y-y_pred).copy()
mask[y-y_pred > 0] = 1
mask[mask <= 0] = -1
W = W + lr * 1/m * mask.dot(X.T)
# 作图
y1 = W[0,0] + W[0,1]*1
y2 = W[0,0] + W[0,1]*20
plt.scatter(x, y)
plt.plot([1,20],[y1,y2],'r--')
plt.xlabel('x')
plt.ylabel('y')
plt.title('MAE')
plt.show()
注意上述代码中对 MAE 计算梯度的部分。
拟合结果如下图所示:
显然,使用 MAE 损失函数,受离群点的影响较小,拟合直线能够较好地表征正常数据的分布情况。这一点,MAE 要优于 MSE。二者的对比图如下:
- 选择 MSE 还是 MAE 呢?
实际应用中,我们应该选择 MSE 还是 MAE 呢?从计算机求解梯度的复杂度来说,MSE 要优于 MAE,而且梯度也是动态变化的,能较快准确达到收敛。但是从离群点角度来看,如果离群点是实际数据或重要数据,而且是应该被检测到的异常值,那么我们应该使用MSE。另一方面,离群点仅仅代表数据损坏或者错误采样,无须给予过多关注,那么我们应该选择MAE作为损失。
二. Mean Absolute Error的MindSpore代码实现
好了,原理已经讲完,话不多说,我们开始上代码。使用的是MindSpore框架实现的代码。
Mean Absolute Error的Metric代码实现
"""Error."""
import numpy as np
from .metric import Metric
class MAE(Metric):
def __init__(self):
super(MAE, self).__init__()
self.clear()
def clear(self):
"""清除历史数据"""
self._abs_error_sum = 0
self._samples_num = 0
def update(self, *inputs):
# 检验输入个数
if len(inputs) != 2:
raise ValueError('Mean absolute error need 2 inputs (y_pred, y), but got {}'.format(len(inputs)))
y_pred = self._convert_data(inputs[0])
y = self._convert_data(inputs[1])
# 复现公式计算
abs_error_sum = np.abs(y.reshape(y_pred.shape) - y_pred)
# 多组数据进行累加
self._abs_error_sum += abs_error_sum.sum()
# 统计数据的个数,方便后面求均值
self._samples_num += y.shape[0]
def eval(self):
"""
返回值是一个float的标量。
"""
if self._samples_num == 0:
raise RuntimeError('Total samples num must not be 0.')
return self._abs_error_sum / self._samples_num
import numpy as np
import mindspore
from mindspore import Tensor
from mindspore.nn.metrics import MAE
x = Tensor(np.array([0.1, 0.2, 0.6, 0.9]), mindspore.float32)
y = Tensor(np.array([0.1, 0.25, 0.7, 0.9]), mindspore.float32)
error = MAE()
error.clear()
error.update(x, y)
result = error.eval()
print(result)
0.037499990314245224
每个batch(比如两组数据)进行计算的时候如下:
import numpy as np
from mindspore import Tensor
from mindspore.nn.metrics import MAE
error = MAE()
error.clear()
x = Tensor(np.array([0.1, 0.2, 0.6, 0.9]))
y = Tensor(np.array([0.1, 0.25, 0.7, 0.9]))
error.update(x, y)
x1 = Tensor(np.array([0.1, 0.2, 0.6, 0.9]))
y1 = Tensor(np.array([0.1, 0.25, 0.7, 0.9]))
error.update(x1, y1)
result = metric.eval()
print(result)
Mean Squared Error的Loss代码实现
import mindspore
import mindspore.common.dtype as mstype
from mindspore.common.tensor import Tensor
from mindspore.common.parameter import Parameter
from mindspore.ops import operations as P
from mindspore.ops import functional as F
from mindspore import nn
class MAELoss(_Loss):
def construct(self, logits, label):
_check_shape(logits.shape, label.shape)
x = F.absolute(logits - label)
return self.get_loss(x)
使用方法如下:
import numpy as np
from mindspore import nn
import mindspore
from mindspore import Tensor
loss = nn.MAELoss()
input_data = Tensor(np.array([1, 2, 3]), mindspore.float32)
target_data = Tensor(np.array([1, 2, 2]), mindspore.float32)
output = loss(input_data, target_data)
print(output)
0.33333334