用OLS模型解决变量之间的影响关系
哈罗各位小伙伴大家好,从上一期开始,我们就进入实证模型的实现部分了。上一周我们推送了关于如何导入spss数据的内容。数据导入很基础,但它也是整个数据检验的第一步。
本期我们将为大家推送“最为经典”也是“最为基础”的OLS回归模型。
在进行ols模型操作讲解之前,我们需要明确ols模型能够解决什么问题——
即:解决变量之间的影响关系,如X对Y的影响评估。多应用于评估自变量对因变量的影响。
如:心情愉悦对学习效果的影响、价格对成交量的影响、学习时间对学习效果、药品使用时间对患者身体指标影响等内容。小伙伴们可以此类推。
01
OLS模型是什么?
首先,我们来看看ols模型是什么?
OLS(ordinary least squares,最小二乘法),它主要被运用至线性回归的参数估计上。它的模型思路较为简单:以实际值和模型估计值之差的平方和达到最小的值被作为参数估计。换句话说,就是通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。最小二乘法可用于曲线拟合,其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达[1]。
OLS看起来并不复杂,但它的使用范围却相当广泛,不要小看它的威力!
在此,我们仅仅需要掌握如何实现ols,在spss里实现ols仅需几步点击就可以搞定。
02
如何实现ols回归?
其次,怎么实现ols回归呢?
我们以一项调查数据为例:
1.打开spssau网站[2]
2.选择相应的变量:
- 设定网购满意度为模型的因变量
- 设定职业、性别、平台偏好、退货次数四个变量为自变量。
通过对自变量和因变量的关系论证,职业、性别、平台偏好、退货次数是否能够影响到网购满意度。
3.我们点击开始分析
4.得到结果:
结果显示,很尴尬,似乎并不具备多少解释力?NO,结果显示p=0.002
说明自变量对因变量具备了很高的解释能力。
需要说明的是:
这其中需要看的还有R2和调整R2 ,通常来说,越大越好,接近1,表示完美拟合。但正常的数据一般不会接近1。
[1]http://blog.itpub.net/69903322/viewspace-2287174/
[2]https://spssau.com/front/spssau/indexs.html
好了各位小伙伴,来总结一下本期的内容吧:
1.我们介绍了ols是什么(它的基本公式和推导过程大家可以自行了解哦)
2.我们使用spssau网站中的样本数据做了一个简单的ols回归模型,其结果还算满意。