千家信息网

Python&Matlab如何实现灰狼优化算法

发表于:2024-11-23 作者:千家信息网编辑
千家信息网最后更新 2024年11月23日,这篇文章给大家分享的是有关Python&Matlab如何实现灰狼优化算法的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。1 灰狼优化算法基本思想灰狼优化算法是一种群智能优化算
千家信息网最后更新 2024年11月23日Python&Matlab如何实现灰狼优化算法

这篇文章给大家分享的是有关Python&Matlab如何实现灰狼优化算法的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

1 灰狼优化算法基本思想

灰狼优化算法是一种群智能优化算法,它的独特之处在于一小部分拥有绝对话语权的灰狼带领一群灰狼向猎物前进。在了解灰狼优化算法的特点之前,我们有必要了解灰狼群中的等级制度。

灰狼群一般分为4个等级:处于第一等级的灰狼用α表示,处于第二阶级的灰狼用β表示,处于第三阶段的灰狼用δ表示,处于第四等级的灰狼用ω表示。按照上述等级的划分,灰狼α对灰狼β、δ和ω有绝对的支配权;灰狼ω对灰狼δ和ω有绝对的支配权;灰狼δ对灰狼ω有绝对的支配权。

2 灰狼捕食猎物过程

GWO 优化过程包含了灰狼的社会等级分层、跟踪、包围和攻击猎物等步骤,其步骤具体情况如下所示。

2.1 社会等级分层

当设计 GWO 时,首先需构建灰狼社会等级层次模型。计算种群每个个体的适应度,将狼群中适应度最好的三匹灰狼依次标记为α、β、δ而剩下的灰狼标记为ω 。也就是说,灰狼群体中的社会等级从高往低排列依次为α、β、δ及 ω。GWO 的优化过程主要由每代种群中的最好三个解(即 α、β、δ)来指导完成。

2.2 包围猎物

灰狼群体通过以下几个公式逐渐接近并包围猎物:

式中,t是当前的迭代代数,A和C是系数向量,Xp和X分别是猎物的位置向量和灰狼的位置向量。A和C的计算公式如下:

式中,a是收敛因子,随着迭代次数从2线性减小到0,r1和r 2服从[ 0,1]之间的均匀分布。

2.3 狩猎

狼群中其他灰狼个体Xi根据α、β和百的位置Xa、XB和Xo来更新各自的位置:

式中,Da,Dβ和D6分别表示a,β和5与其他个体间的距离;Xa,Xβ和X6分别代表a,β和5的当前位置;C1,C2,C3是随机向量,X是当前灰狼的位置。

灰狼个体的位置更新公式如下:

2.4 攻击猎物

构建攻击猎物模型的过程中,根据2)中的公式,a值的减少会引起 A 的值也随之波动。换句话说,A 是一个在区间[-a,a](备注:原作者的第一篇论文里这里是[-2a,2a],后面论文里纠正为[-a,a])上的随机向量,其中a在迭代过程中呈线性下降。当 A 在[-1,1]区间上时,则捜索代理(Search Agent)的下一时刻位置可以在当前灰狼与猎物之间的任何位置上。

2.5 寻找猎物

灰狼主要依赖α、β、δ的信息来寻找猎物。它们开始分散地去搜索猎物位置信息,然后集中起来攻击猎物。对于分散模型的建立,通过|A|>1使其捜索代理远离猎物,这种搜索方式使 GWO 能进行全局搜索。GWO 算法中的另一个搜索系数是C。从2.2中的公式可知,C向量是在区间范围[0,2]上的随机值构成的向量,此系数为猎物提供了随机权重,以便増加(|C|>1)或减少(|C|<1)。这有助于 GWO 在优化过程中展示出随机搜索行为,以避免算法陷入局部最优。值得注意的是,C并不是线性下降的,C在迭代过程中是随机值,该系数有利于算法跳出局部,特别是算法在迭代的后期显得尤为重要。

3 实现步骤及程序框图

3.1 步骤

Step1:种群初始化:包括种群数量N,最大迭代次数Maxlter,调控参数a,A,C.

Step2:根据变量的上下界来随机初始化灰狼个体的位置X。

Step3:计算每一头狼的适应度值,并将种群中适应度值最优的狼的位置信息保存Xα,将种群中适应度值次优的狼的位置信息保存为Xβ,将种群中适应度第三优的灰狼的位置信息保存为Xγ

Step4:更新灰狼个体X的位置。

step5:更新参数a,A和C。

Step6:计算每一头灰狼的适应度值,并更新三匹头狼的最优位置。

Step7:判断是否到达最大迭代次数Maxlter,若满足则算法停止并返回Xa的值作为最终得到的最优解,否则转到Step4。

3.2 程序框图

4 Python代码实现

 #=======导入线管库======import randomimport numpy #完整代码见微信公众号:电力系统与算法之美#输入关键字:灰狼算法 def GWO(objf, lb, ub, dim, SearchAgents_no, Max_iter):     #===初始化 alpha, beta, and delta_pos=======    Alpha_pos = numpy.zeros(dim)  # 位置.形成30的列表    Alpha_score = float("inf")  # 这个是表示"正负无穷",所有数都比 +inf 小;正无穷:float("inf"); 负无穷:float("-inf")     Beta_pos = numpy.zeros(dim)    Beta_score = float("inf")     Delta_pos = numpy.zeros(dim)    Delta_score = float("inf")  # float() 函数用于将整数和字符串转换成浮点数。     #====list列表类型=============    if not isinstance(lb, list):  # 作用:来判断一个对象是否是一个已知的类型。 其第一个参数(object)为对象,第二个参数(type)为类型名,若对象的类型与参数二的类型相同则返回True        lb = [lb] * dim  # 生成[100,100,.....100]30个    if not isinstance(ub, list):        ub = [ub] * dim     #========初始化所有狼的位置===================    Positions = numpy.zeros((SearchAgents_no, dim))    for i in range(dim):  # 形成5*30个数[-100,100)以内        Positions[:, i] = numpy.random.uniform(0, 1, SearchAgents_no) * (ub[i] - lb[i]) + lb[            i]  # 形成[5个0-1的数]*100-(-100)-100    Convergence_curve = numpy.zeros(Max_iter)     #========迭代寻优=====================    for l in range(0, Max_iter):  # 迭代1000        for i in range(0, SearchAgents_no):  # 5            #====返回超出搜索空间边界的搜索代理====            for j in range(dim):  # 30                Positions[i, j] = numpy.clip(Positions[i, j], lb[j], ub[                    j])  # clip这个函数将将数组中的元素限制在a_min(-100), a_max(100)之间,大于a_max的就使得它等于 a_max,小于a_min,的就使得它等于a_min。                  #===========以上的循环里,Alpha、Beta、Delta===========        a = 2 - l * ((2) / Max_iter);  #   a从2线性减少到0         for i in range(0, SearchAgents_no):            for j in range(0, dim):                r1 = random.random()  # r1 is a random number in [0,1]主要生成一个0-1的随机浮点数。                r2 = random.random()  # r2 is a random number in [0,1]                 A1 = 2 * a * r1 - a;  # Equation (3.3)                C1 = 2 * r2;  # Equation (3.4)                # D_alpha表示候选狼与Alpha狼的距离                D_alpha = abs(C1 * Alpha_pos[j] - Positions[                    i, j]);  # abs() 函数返回数字的绝对值。Alpha_pos[j]表示Alpha位置,Positions[i,j])候选灰狼所在位置                X1 = Alpha_pos[j] - A1 * D_alpha;  # X1表示根据alpha得出的下一代灰狼位置向量                 r1 = random.random()                r2 = random.random()                 A2 = 2 * a * r1 - a;  #                C2 = 2 * r2;                 D_beta = abs(C2 * Beta_pos[j] - Positions[i, j]);                X2 = Beta_pos[j] - A2 * D_beta;                 r1 = random.random()                r2 = random.random()                 A3 = 2 * a * r1 - a;                C3 = 2 * r2;                 D_delta = abs(C3 * Delta_pos[j] - Positions[i, j]);                X3 = Delta_pos[j] - A3 * D_delta;                 Positions[i, j] = (X1 + X2 + X3) / 3  # 候选狼的位置更新为根据Alpha、Beta、Delta得出的下一代灰狼地址。         Convergence_curve[l] = Alpha_score;         if (l % 1 == 0):            print(['迭代次数为' + str(l) + ' 的迭代结果' + str(Alpha_score)]);  # 每一次的迭代结果 #========函数==========def F1(x):    s=numpy.sum(x**2);    return s #===========主程序================func_details = ['F1', -100, 100, 30]function_name = func_details[0]Max_iter = 1000#迭代次数lb = -100#下界ub = 100#上届dim = 30#狼的寻值范围SearchAgents_no = 5#寻值的狼的数量x = GWO(F1, lb, ub, dim, SearchAgents_no, Max_iter)

5 Matlab实现

% 主程序 GWOclearclose allclc %%完整代码见微信公众号:电力系统与算法之美 %输入关键字:灰狼算法 SearchAgents_no = 30 ; % 种群规模dim = 10 ; % 粒子维度Max_iter = 1000 ; % 迭代次数ub = 5 ;lb = -5 ; %% 初始化三匹头狼的位置Alpha_pos=zeros(1,dim);Alpha_score=inf;  Beta_pos=zeros(1,dim);Beta_score=inf;  Delta_pos=zeros(1,dim);Delta_score=inf;    Convergence_curve = zeros(Max_iter,1); %% 开始循环for l=1:Max_iter    for i=1:size(Positions,1)                 %% 返回超出搜索空间边界的搜索代理        Flag4ub=Positions(i,:)>ub;        Flag4lb=Positions(i,:)Alpha_score && fitnessAlpha_score && fitness>Beta_score && fitness

感谢各位的阅读!关于"Python&Matlab如何实现灰狼优化算法"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

0