一、神经网络-支持向量机
支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。 1 数学部分 1.1 二维空间 2 算法部分
二、粒子群算法
粒子群算法是在1995年由Eberhart博士和Kennedy博士一起提出的,它源于对鸟群捕食行为的研究。它的基本核心是利用群体中的个体对信息的共享从而使整个群体的运动在问题求解空间中产生从无序到有序的演化过程,从而获得问题的最优解。设想这么一个场景:一群鸟进行觅食,而远处有一片玉米地,所有的鸟都不知道玉米地到底在哪里,但是它们知道自己当前的位置距离玉米地有多远。那么找到玉米地的最佳策略,也是最简单有效的策略就是搜寻目前距离玉米地最近的鸟群的周围区域。
在PSO中,每个优化问题的解都是搜索空间中的一只鸟,称之为"粒子",而问题的最优解就对应于鸟群中寻找的"玉米地"。所有的粒子都具有一个位置向量(粒子在解空间的位置)和速度向量(决定下次飞行的方向和速度),并可以根据目标函数来计算当前的所在位置的适应值(fitness value),可以将其理解为距离"玉米地"的距离。在每次的迭代中,种群中的例子除了根据自身的经验(历史位置)进行学习以外,还可以根据种群中最优粒子的"经验"来学习,从而确定下一次迭代时需要如何调整和改变飞行的方向和速度。就这样逐步迭代,最终整个种群的例子就会逐步趋于最优解。
上面的解释可能还比较抽象,下面通过一个简单的例子来进行说明
在一个湖中有两个人他们之间可以通信,并且可以探测到自己所在位置的最低点。初始位置如上图所示,由于右边比较深,因此左边的人会往右边移动一下小船。
现在左边比较深,因此右边的人会往左边移动一下小船
一直重复该过程,最后两个小船会相遇
得到一个局部的最优解
将每个个体表示为粒子。每个个体在某一时刻的位置表示为,x(t),方向表示为v(t)
p(t)为在t时刻x个体的自己的最优解,g(t)为在t时刻所有个体的最优解,v(t)为个体在t时刻的方向,x(t)为个体在t时刻的位置
下一个位置为上图所示由x,p,g共同决定了
种群中的粒子通过不断地向自身和种群的历史信息进行学习,从而可以找到问题的最优解。
但是,在后续的研究中表表明,上述原始的公式中存在一个问题:公式中V的更新太具有随机性,从而使整个PSO算法的全局优化能力很强,但是局部搜索能力较差。而实际上,我们需要在算法迭代初期PSO有着较强的全局优化能力,而在算法的后期,整个种群应该具有更强的局部搜索能力。所以根据上述的弊端,shi和Eberhart通过引入惯性权重修改了公式,从而提出了PSO的惯性权重模型:
每一个向量的分量表示如下
其中w称为是PSO的惯性权重,它的取值介于【0,1】区间,一般应用中均采用自适应的取值方法,即一开始令w=0.9,使得PSO全局优化能力较强,随着迭代的深入,参数w进行递减,从而使的PSO具有较强的局部优化能力,当迭代结束时,w=0.1。参数c1和c2称为学习因子,一般设置为1,4961;而r1和r2为介于[0,1]之间的随机概率值。
整个粒子群优化算法的算法框架如下:
step1种群初始化,可以进行随机初始化或者根据被优化的问题设计特定的初始化方法,然后计算个体的适应值,从而选择出个体的局部最优位置向量和种群的全局最优位置向量。
step2 迭代设置:设置迭代次数,并令当前迭代次数为1
step3 速度更新:更新每个个体的速度向量
step4 位置更新:更新每个个体的位置向量
step5 局部位置和全局位置向量更新:更新每个个体的局部最优解和种群的全局最优解
step6 终止条件判断:判断迭代次数时都达到最大迭代次数,如果满足,输出全局最优解,否则继续进行迭代,跳转至step 3。
对于粒子群优化算法的运用,主要是对速度和位置向量迭代算子的设计。迭代算子是否有效将决定整个PSO算法性能的优劣,所以如何设计PSO的迭代算子是PSO算法应用的研究重点和难点。
三、部分代码
clc;clear;close all; %% 初始化种群 f= @(a,b,c,d,e)(a.*b.*c.*d.*e); % 函数表达式 % figure(1); % [x0_1, x0_2]=meshgrid(0:.2:20); % y0=f(x0_1,x0_2); % mesh(x0_1, x0_2, y0); % hold on; N = 500; % 初始种群个数 d = 5; % 空间维数 ger = 300; % 最大迭代次数 limit = [0, 20;0,20;0,20;0,20;0,20]; % 设置位置参数限制(矩阵的形式可以多维) vlimit = [-1.5, 1.5;-1.5, 1.5;-1.5, 1.5;-1.5, 1.5;-1.5, 1.5]; % 设置速度限制 c_1 = 0.8; % 惯性权重 c_2 = 0.5; % 自我学习因子 c_3 = 0.5; % 群体学习因子 for i = 1:d x(:,i) = limit(i, 1) + (limit(i, 2) - limit(i, 1)) * rand(N, 1);%初始种群的位置 end v = rand(N, d); % 初始种群的速度 xm = x; % 每个个体的历史最佳位置 ym = zeros(1, d); % 种群的历史最佳位置 fxm = zeros(N, 1); % 每个个体的历史最佳适应度 fym = -inf; % 种群历史最佳适应度 % plot3(xm(:,1),xm(:,2),f(xm(:,1),xm(:,2)), 'ro');title('初始状态图'); % hold on; % figure(2); % mesh(x0_1, x0_2, y0); % hold on; % plot3(xm(:,1),xm(:,2),f(xm(:,1),xm(:,2)), 'ro'); % hold on; %% 粒子群工作 iter = 1; times = 1; record = zeros(ger, 1); % 记录器 while iter <= ger fx = f(x(:,1),x(:,2),x(:,3),x(:,4),x(:,5)) ; % 个体当前适应度 for i = 1:N if fxm(i) < fx(i) fxm(i) = fx(i); % 更新个体历史最佳适应度 xm(i,:) = x(i,:); % 更新个体历史最佳位置 end end if fym < max(fxm) [fym, nmax] = max(fxm); % 更新群体历史最佳适应度 ym = xm(nmax, :); % 更新群体历史最佳位置 end v = v * c_1 + c_2 * rand *(xm - x) + c_3 * rand *(repmat(ym, N, 1) - x);% 速度更新 % 边界速度处理 for i=1:d for j=1:N if v(j,i)>vlimit(i,2) v(j,i)=vlimit(i,2); end if v(j,i) < vlimit(i,1) v(j,i)=vlimit(i,1); end end end x = x + v;% 位置更新 % 边界位置处理 for i=1:d for j=1:N if x(j,i)>limit(i,2) x(j,i)=limit(i,2); end if x(j,i) < limit(i,1) x(j,i)=limit(i,1); end end end record(iter) = fym;%最大值记录 % if times >= 10 % cla; % mesh(x0_1, x0_2, y0); % plot3(x(:,1),x(:,2),f(x(:,1),x(:,2)), 'ro');title('状态位置变化'); % pause(0.5); % times=0; % end iter = iter+1; times=times+1; end 、
四、仿真结果
五、参考文献及代码私信博主