iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >粒子群优化算法(PSO)python实践
  • 703
分享到

粒子群优化算法(PSO)python实践

PSO粒子群优化算法学习实践 2023-09-11 11:09:27 703人浏览 独家记忆

Python 官方文档:入门教程 => 点击学习

摘要

1 算法介绍和原理 1.1 算法原理 强烈推荐知乎大佬的这篇文章:粒子群优化算法(Particle Swarm Optimization, PSO)的详细解读 - 知乎 (zhihu.com)。该文章

1 算法介绍和原理

1.1 算法原理

强烈推荐知乎大佬的这篇文章:粒子群优化算法(Particle Swarm Optimization, PSO)的详细解读 - 知乎 (zhihu.com)。该文章详细介绍了算法的原理、算法流程、参数解释和一些Tips,这里就不过多赘述了。

粒子群优化算法(PSO, Particle Swarm Optimization),属于启发式算法中的一种,常用于多目标优化,寻找全局最优解,具有收敛速度快、参数少、算法简单的优点。

算法流程图如下(图片来自这篇文章):

img

1.2 更新公式

1.2.1 速度更新公式

v i d k + 1 =ω v i d k + c 1 r 1 ( p i d ,  pbest  k − x i d k ) + c 2 r 2 ( p d ,  gbest  k − x i d k ) v_{i d}^{k+1}=\omega v_{i d}^k+c_1 r_1\left(p_{i d, \text { pbest }}^k-x_{i d}^k\right)+c_2 r_2\left(p_{d, \text { gbest }}^k-x_{i d}^k\right) vidk+1=ωvidk+c1r1(pid, pbest kxidk)+c2r2(pd, gbest kxidk)

v i d k + 1 v_{i d}^{k+1} vidk+1 —— 粒子 i i i 在第 k k k 次迭代中第 d d d 维的速度向量。

p i d ,  pbest  k p_{i d, \text { pbest }}^k pid, pbest k —— 粒子 i i i 在第 k k k 次迭代中第 d d d 维的历史最优位置。

速度可以看作一个向量,具有大小和方向。即是粒子下一轮迭代移动的距离和方向。公式分为三部分,第一部分为惯性项,由该粒子的当前速度和惯性权重 ω \omega ω 组成。第二部分为认知项,即是粒子当前位置和自身历史最优位置间的距离和方向。 第三部分为社会项,即是粒子当前位置和群体历史最优位置间的距离和方向。

对于更新速度的方向,等于三部分向量和向量的方向。

1.2.2 位置更新公式

x i d k + 1 = x i d k + v i d k + 1 x_{i d}^{k+1}=x_{i d}^{k}+v_{i d}^{k+1} xidk+1=xidk+vidk+1

点加向量等于点

大致掌握算法原理后,直接上手代码。

2 代码实现

示例问题:

求解如下函数的极小值
y= x 1 e x 2 + x 3 sin x 2 + x 4 x 5 y=x_1e^{x_2}+x_3sinx_2+x_4x_5 y=x1ex2+x3sinx2+x4x5
每个变量的取值都在(1,25)。

首先是定义一个求解类及其初始化方法。

class PSO:    def __init__(self, D, N, M, p_low, p_up, v_low, v_high, w = 1., c1 = 2., c2 = 2.):        self.w = w  # 惯性权值        self.c1 = c1  # 个体学习因子        self.c2 = c2  # 群体学习因子        self.D = D  # 粒子维度        self.N = N  # 粒子群规模,初始化种群个数        self.M = M  # 最大迭代次数        self.p_range = [p_low, p_up]  # 粒子位置的约束范围        self.v_range = [v_low, v_high]  # 粒子速度的约束范围        self.x = np.zeros((self.N, self.D))  # 所有粒子的位置        self.v = np.zeros((self.N, self.D))  # 所有粒子的速度        self.p_best = np.zeros((self.N, self.D))  # 每个粒子的最优位置        self.g_best = np.zeros((1, self.D))[0]  # 种群(全局)的最优位置        self.p_bestFit = np.zeros(self.N)  # 每个粒子的最优适应值        self.g_bestFit = float('Inf')  # float('-Inf'),始化种群(全局)的最优适应值,由于求极小值,故初始值给大,向下收敛,这里默认优化问题中只有一个全局最优解        # 初始化所有个体和全局信息        for i in range(self.N):            for j in range(self.D):                self.x[i][j] = random.unifORM(self.p_range[0][j], self.p_range[1][j])                self.v[i][j] = random.uniform(self.v_range[0], self.v_range[1])            self.p_best[i] = self.x[i]  # 保存个体历史最优位置,初始默认第0代为最优            fit = self.fitness(self.p_best[i])            self.p_bestFit[i] = fit  # 保存个体历史最优适应值            if fit < self.g_bestFit:  # 寻找并保存全局最优位置和适应值                self.g_best = self.p_best[i]                self.g_bestFit = fit

然后定义适应度计算函数,也就是我们要寻优的对象。

def fitness(x):    """    根据粒子位置计算适应值,可根据问题情况自定义    """    return x[0] * np.exp(x[1]) + x[2] * np.sin(x[1]) + x[3] * x[4]

定义每次迭代的更新函数。

def update(self):    for i in range(self.N):        # 更新速度(核心公式)        self.v[i] = self.w * self.v[i] + self.c1 * random.uniform(0, 1) * (                self.p_best[i] - self.x[i]) + self.c2 * random.uniform(0, 1) * (self.g_best - self.x[i])        # 速度限制        for j in range(self.D):            if self.v[i][j] < self.v_range[0]:                self.v[i][j] = self.v_range[0]            if self.v[i][j] > self.v_range[1]:                self.v[i][j] = self.v_range[1]        # 更新位置        self.x[i] = self.x[i] + self.v[i]        # 位置限制        for j in range(self.D):            if self.x[i][j] < self.p_range[0][j]:                self.x[i][j] = self.p_range[0][j]            if self.x[i][j] > self.p_range[1][j]:                self.x[i][j] = self.p_range[1][j]        # 更新个体和全局历史最优位置及适应值        _fit = self.fitness(self.x[i])        if _fit < self.p_bestFit[i]:            self.p_best[i] = self.x[i]            self.p_bestFit[i] = _fit        if _fit < self.g_bestFit:            self.g_best = self.x[i]            self.g_bestFit = _fit

其中主要完成每轮迭代中单个粒子位置和速度,历史最优位置和最优适应度的更新,以及群体(全局)的最优位置和最优适应度的更新。

最后,便是主要函数的实现。

def pso(self, draw = 1):    best_fit = []  # 记录每轮迭代的最佳适应度,用于绘图    w_range = None    if isinstance(self.w, tuple):        w_range = self.w[1] - self.w[0]        self.w = self.w[1]    time_start = time.time()  # 记录迭代寻优开始时间    for i in range(self.M):        self.update()  # 更新主要参数和信息        if w_range:            self.w -= w_range / self.M  # 惯性权重线性递减        print("\rIter: {:d}/{:d} fitness: {:.4f} ".format(i, self.M, self.g_bestFit, end = '\n'))        best_fit.append(self.g_bestFit.copy())    time_end = time.time()  # 记录迭代寻优结束时间    print(f'AlGorithm takes {time_end - time_start} seconds')  # 打印算法总运行时间,单位为秒/s    if draw:        plt.figure()        plt.plot([i for i in range(self.M)], best_fit)        plt.xlabel("iter")        plt.ylabel("fitness")        plt.title("Iter process")        plt.show()

测试代码如下。

if __name__ == '__main__':    low = [1, 1, 1, 1, 1]    up = [25, 25, 25, 25, 25]    pso = PSO(5, 100, 50, low, up, -1, 1, w = 0.9)    pso.pso()

测试结果如下图所示。

Figure_21

...Iter: 47/50 fitness: 4.5598 Iter: 48/50 fitness: 4.5598 Iter: 49/50 fitness: 4.5598 Algorithm takes 0.1444549560546875 seconds

可以看到在第30轮就已经完全收敛了,且函数在求解空间中的极小值为4.5598。

3 总结

  • 动态的惯性权重 [ 1 ] ^{[1]} [1]

    image-20221108142132141

    w_range = self.w[1] - self.w[0]self.w = self.w[1]self.w -= w_range / self.M  # 惯性权重线性递减
  • fitness变化逻辑

    fitness是适应度函数值,通常问题是寻找解空间内的粒子,使得该粒子所代表的解的fitness向下或向上收敛于某一定值。对于不同收敛方向,个体和全局最优fitness一般初始化赋值无穷大或者无穷小float('Inf')/float('-Inf')。并且在判断更新最优适应值时也应当注意大小于符号。

  • 程序复用

    对于上面的PSO类代码,不同多元寻优问题均可通过重写类中的fitness函数实现。或者定义self.fitness_function属性进行外部函数名传参赋值。

参考

[1] 粒子群优化算法(Particle Swarm Optimization, PSO)的详细解读 - 知乎 (zhihu.com)

[2] 粒子群算法(PSO)的Python实现(求解多元函数的极值)_Cyril_KI的博客-CSDN博客_pso算法python

来源地址:https://blog.csdn.net/qq_39784672/article/details/127750401

--结束END--

本文标题: 粒子群优化算法(PSO)python实践

本文链接: https://www.lsjlt.com/news/402967.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 粒子群优化算法(PSO)python实践
    1 算法介绍和原理 1.1 算法原理 强烈推荐知乎大佬的这篇文章:粒子群优化算法(Particle Swarm Optimization, PSO)的详细解读 - 知乎 (zhihu.com)。该文章...
    99+
    2023-09-11
    PSO 粒子群优化算法 学习实践
  • 优化算法库DEAP的粒子群优化算法(PSO)示例代码分析
    之前使用优化算法库DEAP做遗传算法(Genetic Optimization),最近在研究粒子群优化算法(PSO)发现DEAP也提供支持;对原代码做了分析,之后会尝试用于交易策略参数优化。首先关于粒子群优化算法(PSO),这个算法的介绍很...
    99+
    2023-06-02
  • Python代码实现粒子群算法图文详解
    目录1.引言2.算法的具体描述:2.1原理2.2标准粒子群算法流程3.代码案例3.1问题3.2绘图 3.3计算适应度3.4更新速度3.5更新粒子位置3.6主要算法过程结果总...
    99+
    2024-04-02
  • Python实现蚁群算法
    目录1、引言2蚁群算法理论3算法理论图解 4人工蚁群优化过程 5 基本蚁群算法及其流程 5.1  蚁群算法公式 ...
    99+
    2024-04-02
  • GO语言编程实践:如何优化算法性能?
    随着计算机科技的不断进步,人们对软件性能的要求也越来越高。尤其对于算法,我们希望它能够在最短的时间内完成任务。本文将介绍如何使用GO语言编程来优化算法性能。 一、使用合适的数据结构 在算法设计过程中,数据结构的选择非常重要。不同的数据结构...
    99+
    2023-11-05
    开发技术 编程算法 并发
  • python实现五子棋算法
    python五子棋原创算法,供大家参考,具体内容如下 我们都见过五子棋,但是在我看来五子棋单机游戏中,逻辑赢法很重要,经常用到的算法是五子连珠算法,但是很多五子连珠算法很不全面,不是...
    99+
    2024-04-02
  • Python如何实现蚁群算法
    这篇文章将为大家详细讲解有关Python如何实现蚁群算法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。1、引言在自然界中各种生物群体显现出来的智能近几十年来得到了学者们的广泛关注,学者们通过对简单生物体的...
    99+
    2023-06-29
  • Python如何实现鸡群算法
    这篇“Python如何实现鸡群算法”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Python如何实现鸡群算法”文章吧。算法简...
    99+
    2023-07-04
  • Python打包程序优化二维码编程算法的实践经验分享
    二维码作为一种快速传递信息的方式,在日常生活中得到了广泛应用。Python作为一种高效的编程语言,也自然而然地成为了二维码编程的首选语言之一。然而,随着二维码的使用场景不断扩大,对二维码编程算法的优化需求也越来越迫切。本文将分享我们在Py...
    99+
    2023-08-26
    打包 编程算法 二维码
  • Python编程算法:如何优化算法性能?
    在Python编程中,算法优化是一项至关重要的任务。一个优化良好的算法可以显著提高程序的性能,从而提高用户体验和程序的可靠性。本文将介绍一些常用的Python算法优化技巧,帮助读者更好地理解如何提高程序的性能。 使用Python内置函数...
    99+
    2023-06-28
    编程算法 开发技术 git
  • Python&Matlab如何实现灰狼优化算法
    这篇文章给大家分享的是有关Python&Matlab如何实现灰狼优化算法的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。1 灰狼优化算法基本思想灰狼优化算法是一种群智能优化算法,它的独特之处在于一小部分拥有...
    99+
    2023-06-29
  • python实现ROA算子边缘检测算法
    python实现ROA算子边缘检测算法的具体代码,供大家参考,具体内容如下 代码 import numpy as np import cv2 as cv def ROA(im...
    99+
    2024-04-02
  • Python优化算法之遗传算法案例代码
    目录一、前言二、安装三、遗传算法3.1 自定义函数3.2 遗传算法进行整数规划3.3 遗传算法用于旅行商问题3.4 使用遗传算法进行曲线拟合一、前言 优化算法,尤其是启发式的仿生智能...
    99+
    2023-02-18
    Python遗传算法 Python优化算法
  • python怎么实现人工鱼群算法
    要实现人工鱼群算法(Artificial Fish Swarm Algorithm, AFSA)可以按照以下的步骤进行:1. 定义鱼...
    99+
    2023-09-26
    python
  • python怎么实现五子棋算法
    本文小编为大家详细介绍“python怎么实现五子棋算法”,内容详细,步骤清晰,细节处理妥当,希望这篇“python怎么实现五子棋算法”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。if (j+4<n...
    99+
    2023-06-30
  • 编程技术分享:GO语言与算法优化的实践经验
    在现代软件开发中,算法优化是一个重要的话题。优化算法可以使程序更快速、更高效地运行,从而提高用户体验和减少资源消耗。GO语言是一种快速、可靠和高效的编程语言,可以帮助开发人员实现优化算法。在本文中,我们将探讨GO语言与算法优化的实践经验,...
    99+
    2023-08-23
    laravel 编程算法 自然语言处理
  • 一个关于遗传算法优化的简单例子
    在课程上学了一些关于遗传算法的思想的,想用这个思想来写一个简单的小例子。 先来说遗传算法的思想:遗传算法是模拟生物的遗传、变异、选择、进化来对问题的解进行优化,可以理解为将一组初始解看成是“基因”,在求解的开始设置一个过滤器,对“基因”进...
    99+
    2023-01-31
    算法 例子 简单
  • Linux编程算法的优化之路:ASP异步编程的实践经验
    随着计算机技术的不断发展,人们的需求越来越高,尤其是对于大数据量的处理和高并发的要求。而在这样的背景下,一些高效的算法和编程技巧就显得尤为重要。本文将介绍一种常见的Linux编程算法优化方法:ASP异步编程,并且通过实际的代码演示,帮助读...
    99+
    2023-11-03
    异步编程 linux 编程算法
  • 编程中的算法优化:GO语言和Laravel框架的最佳实践
    在编程领域中,算法优化是一个非常重要的话题。优化算法可以提高程序的运行效率和性能,使程序更加稳定和可靠。本文将介绍GO语言和Laravel框架中的最佳实践,帮助开发者优化算法。 GO语言的最佳实践 GO语言是一个开源的编程语言,由Goog...
    99+
    2023-08-23
    laravel 编程算法 自然语言处理
  • 优化 PHP 算法实现的技巧
    优化 php 算法实现技巧包括:使用内置函数;减少不必要的循环;使用寻址符号 &amp; 提高效率;优化数组访问,例如提前计算数组长度、使用 list() 函数分配多个元素、使用...
    99+
    2024-05-07
    算法 php 冒泡排序
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作