文章目录
- 6. 插值与拟合
- 6.1 插值
- 6.1.1 一维插值
- 6.1.2 二维插值
- 6.2 拟合问题
- 6.2.1 拟合的计算
- 6.2.2 多项式拟合
- 6.2.3 非线性拟合
- 6.3 拟合问题与插值问题的区别
- 7.模糊综合评价模型
- 7.1 变异系数法求得权向量A。
- 7.2.1 相对偏差模糊矩阵评价法确定R。
- 7.2.2 相对优属度模糊矩阵评价法确定R。
- 7.3 对B分析处理后即可获得综合评价结果。
- 8. 相关性分析
- 8.1 两变量相关分析 spss
- 8.1.1 Pearson相关系数
- 8.1.2 Spearman等级相关系数
- 8.1.3 Kendall tua-b等级相关系数
- 8.1.4 双变量关系强度测量的主要指标
- 8.2 偏相关分析
- 8.2.1 偏相关系数及其检验
- 9.主成分分析 spss
- 9.1 主成分分析步骤
- 9.2 主成分的选择
- 10 回归分析
- 10.1 回归分析函数
- 10.1.1 多元线性回归
- 10.1.2 多项式回归
- 10.1.3 多元二项式回归
- 10.1.4 非线性回归
- 10.1.5 逐步回归
6. 插值与拟合
6.1 插值
插值方法解决的问题:已知函数在某区间(域)内若干点处的值,求函数在该区间(域)内其它点处的值。
6.1.1 一维插值
yi= interp1(x,y,xi, 'method')
x,y为插值点,xi,yi为被插值点和插值结果,x,y和xi,yi通常为向量;'method’表示插值方法: ’ n e a re s t '—最邻近插值,‘linear’—线性插值, ‘spline’—三次样条插值,‘cubic’—立方插值,缺省为线性插值。
例1Matlab程序
x=0:2:24;
y=[12 9 9 10 18 24 28 27 25 20 18 15 13];
x1=13;
y1=interp1(x,y,x1,'spline')
xi=0:1/3600:24;
yi=interp1(x,y,xi, 'spline');
plot(x,y, '*',xi,yi)
6.1.2 二维插值
zi=interp2(x,y,z,xi,yi,'method')
x,y,z为插值点,z可以理解为被插值函数在(x,y)处的值;xi,yi为被插值点, zi为输出的插值结果,可理解为插值函数在(xi,yi)处的值;x,y为向量,xi,yi为向量或矩阵,而z和zi则为矩阵。
例3Matlab程序
x=1:5;
y=1:3;
temps=[82 81 80 82 84;79 63 61 65 81;84 84
82 85 86];
figure(1);
mesh(x,y,temps);
xi=1:0.2:5; %行向量
yi=1:0.2:3; %列向量
zi=interp2(x,y,temps,xi,yi','cubic');
figure(2);
mesh(xi,yi,zi);
figure(3);
contour(xi,yi,zi,20,'r');
[i,j]=find(zi==min(min(zi)));
x=xi(j),y=yi(i),zmin=zi(i,j)
[i,j]=find(zi==max(max(zi)));
x=xi(j),y=yi(i),zmax=zi(i,j)
plot3(空间曲线), mesh(空间曲面),surf (空间曲面), contour(等高线)是三维作图中的常用命令。mesh和surf的区别是:mesh画的是曲面网格图,而surf画的是曲面表面图。c o n t o u r ( x , y, z , n ) 的功能是作出由点(x,y,z)插值而成曲面的n条等高线。用meshc和surfc可在曲面下方画等高线。meshz和surfz是画垂帘图。
6.2 拟合问题
根据离散数据求数据间近似函数关系的问题称为曲线拟合问题。
6.2.1 拟合的计算
曲线拟合需解决如下两个问题:
(1) 线型的选择;
(2) 线型中参数的计算。
线型的选择是拟合计算的关键和难点。通常主要根据专业知识和散点图确定线型。
线性拟合中参数的计算可采用最小二乘法,而非线性拟合参数的计算则要应用Gauss-Newton迭代法。
6.2.2 多项式拟合
[a,S]=polyfit(x,y,n)
其中,x和y是被拟合数据的自变量和因变量;n为拟合多项式的次数;a为拟合多项式系数构成的向量;S为分析拟合效果所需的指标(可省略)。
x=1:12;
y=[5, 8, 9, 15, 25, 29, 31, 30, 22, 25, 27, 24];
a=polyfit(x,y,9)
xp=1:0.1:12;
yp=polyval(a,xp);
plot(x,y,'.k',xp,yp,'r');
6.2.3 非线性拟合
[b,r]=nlinfit(x,y,fun,b0,option)
其中,x和y是被拟合数据的自变量和因变量;fun为拟合函数;b0为拟合参数的初始迭代值;option为拟合选项;b为拟合参数;r为拟合残差。
x=1:16;
y=[4.00 6.40 8.00 8.80 9.22 9.50 9.70 9.86 10.00
10.20 10.32 10.42 10.50 10.55 10.58 10.60];
y1=@(b,t)b(1)*exp(-t/b(2))+b(3)*exp(-t/b(4))
+b(5);
b0=[-1 1 -1 1 1];
a=nlinfit(x,y,y1,b0)
xp=1:0.1:16;
yp=y1(a,xp);
plot(x,y,'.k',xp,yp,'r');
6.3 拟合问题与插值问题的区别
(1) 插值函数过已知点,而拟合函数不一定过已知点;
(2) 插值主要用于求函数值,而拟合的主要目的是求函数关系,从而进行预测等进一步的分析。
7.模糊综合评价模型
对评价矩阵 R和权向量A进行某种适当的模糊运算, 将两者合成为一个模糊向B={b1,b2,…,bn},即B=A·R,然后对B按照一定法则进行综合分析后即可得出最终的模糊综合评价结果。
7.1 变异系数法求得权向量A。
变异系数法的设计原理是:若某项指标的数值差异较大,能明确区分开各被评价对象,说明该指标的分辨信息丰富,因而应给该指标以较大的权重;反之,若各个被评价对象在某项指标上的数值差异较小,那么这项指标区分各评价对象的能力较弱,因而应给该指标较小的权重。
因为方差可以描述取值的离散程度,即某指标的方差反映了该指标的的分辨能力,所以可用方差定义指标的权重。
7.2.1 相对偏差模糊矩阵评价法确定R。
相对偏差模糊矩阵评价法与灰色关联分析有点类似。首先虚拟一个理想方案u,然后按照某种方法建立各方案与u的偏差矩阵R,再确定各评价指标的权重A,最后用A对R加权平均得各方案与u的综合距离F, 则根据F即可对方案进行排序。
7.2.2 相对优属度模糊矩阵评价法确定R。
相对偏差法的评价依据是各方案与理想方案的偏差,而相对优属度评价法的基本思想
是:首先用适当的方法将所有指标(效益型、成本型、固定型)转化为效益型(成本型),得到优属度矩阵R,再确定各评价指标的权重A,最后用A对R加权平均得各方案的综合优属度F, 则根据F即可对方案进行排序。
7.3 对B分析处理后即可获得综合评价结果。
分析处理B的常用方法有:
(1) 最大隶属度法, 即认定被评价对象的等级为最大隶属度对应的等级, 适用于某隶属度明显大于其它隶属度的情形。
(2) 加权平均法,具体方法是: 给评价集V={v1 ,v2 ,…,vn }中的各等级赋以适当的分值C={c1,c2,…,cn},用归一化的综合评价向量B={b1,b2,…,bn}对C的加权平均值
8. 相关性分析
相关性分析一般直接用spss软件解决,或者直接调用模版代码。
四种基本变量
- 定类变量:根据定性的原则区分总体各个案类别的变量
案例:性别,民族、婚姻状况 - 定序变量:区别同一类别个案中等级次序的变量
案例:文化程度、工厂规模·、年龄大小 - 定距变量:区别同一类别个案中等级次序及其距离的变量
案例:摄氏温度、比率、智力水平 - 定比变量:也是区别同一类别个案中等级次序及其距离的变量
案例:收入、价格、市场占有率
8.1 两变量相关分析 spss
8.1.1 Pearson相关系数
适用于定距、定比类型的变量。是运用最广的一种相关程度统计量。检验用t统计量:其中统计量t服从自由度(n-2)的分布。
8.1.2 Spearman等级相关系数
适用于度量定序变量与定序变量之间的相关
其中分别是两个变量按大小排列的等级,n是样本容量,当n>20可利用统计量检验。
8.1.3 Kendall tua-b等级相关系数
它也是用来度量定序变量间的线性相关关系。这里的度量原理是把所有的样本点配对 , 看每一对中的 x 和 y 是否都增加来判断总体模式。
8.1.4 双变量关系强度测量的主要指标
8.2 偏相关分析
偏相关分析是指在对其他变量的影响进行控制的条件下,分析多个变量中某两个变量之间的线性相关程度,计算偏相关系数。
8.2.1 偏相关系数及其检验
假定有这3个变量,要求计算剔除变量的影响后变量之间的偏相关系数,记为 其中为可控变量。
偏相关系数的显著性检验公式:
9.主成分分析 spss
数据降维算法:主成分分析、因子分析。
主成分分析的目的:数据的压缩;数据的解释
9.1 主成分分析步骤
- 对原来的p个指标进行标准化,以消除变量在水平量纲上的影响。
- 根据标准化后的数据矩阵求出相关系数矩阵
- 求出协方差矩阵的特征根和特征向量
- 确定主成分,并对各主成分所包含的信息给予适当的解释
9.2 主成分的选择
特征根反映了主成分对原始变量的影响程度,表示引入该主成分后可以解释原始变量的信息特征根又叫方差,某个特征根占总特征根的比例称为主成分方差贡献率。
- 根据主成分贡献率选择
一般来说,主成分的累计方差贡献率达到80%以上的前几个主成分,都可以选作最后的主成分 - 根据特征根的大小
一般情况下,当特征根小于1时,就不再选作主成分了,因为该主成分的解释力度还不如直接用原始变量解的释力度大
10 回归分析
回归模型:
一元线性回归
- 数学模型及定义
- 模型参数估计
- 检验、预测及控制
- 可线性规划的一元线性回归
多元线性回归
- 数学模型及定义
- 模型参数估计
- 多元线性回归中的检测与预测
- 逐步回归分析
10.1 回归分析函数
10.1.1 多元线性回归
- 确定回归系数的点估计值
b=regress(Y,X)
- 求回归系数的点估计和区间估计、并检验回归模型
[b,bint,r,rint,stats]=regress(Y,X,alpha)
- 画出残差及其置信区间
rcoplot(r,rint)
10.1.2 多项式回归
- 回归
确定多项式系数的命令:[p,S]=polyfit(x,y,m)
一元多项式回归命令:polytool(x,y,m)
- 预测和预测误差估计
Y=polyval(p,x)
求polyfit所得的回归多项式在x处的预测值[Y,DELTA]=polyconf(p,x,S,alpha)
求polyfit所得的回归多项式在x处的预测值Y及预测的显著性为1-alpha的置信区间Y加减DELTA;alpha缺省为0.05
10.1.3 多元二项式回归
命令:rstool(x,t,'model',alpha)
10.1.4 非线性回归
- 回归
确定回归系数的命令[beta,r,J]=nlinfit(x,y,'model',beta0)
- 预测和预测误差估计
[Y,DELTA]=nlipredic('model',x,beta,r,J)
10.1.5 逐步回归
stepwise(x,y,inmodel,alpha)