发布时间:2023-10-12 19:00
在使用启发式算法的时候,一个常见的问题是融入陷入局部最优,导致很长时间内算法的解难以得到改进,现总结一下几种常见的元启发式如何跳出局部最优。
一、跟算法内部设计无关: 使用多个初始解搜索;
二、跟算法内部设计有关:接受较差的解/扰动/交叉变异
SA: 若新解优于原解,接受,否,以一定概率/接受标准 exp((sol.Cost-newsol.Cost)/ck)接受较差解。
VND:纯静态算法,邻域只有一个的话,跟爬山无异;跟爬山相比多了邻域的个数。
VNS:shake策略,扰动初始解,shaking本质上来说也是邻域搜索的一种,但需要注意的是,shake强度不能太小,不然很容易被局部搜索拉回,且shake对解的扰动程度比local search要强;同时shake的强度不能太大,不然与random search无异。
GA:通过交叉/变异跳出局部最优;
yolov5 ModuleNotFoundError: No module named ‘models‘
蓝牙小车(基于stm32f103c8t6/HAL库,超详细)
python为什么要用魔法方法_Python学习————魔法方法
C# ABB机器人上位机控制 .net PC SDK开发全流程(通信、控制、日志、二次开发)--Chapter 1
图网络 | Graph Attention Networks | ICLR 2018 | 代码讲解
(九)PyTorch深度学习:卷积神经网络( GoogleNet网络架构中的 inception module 模块为本次卷积神经网络架构)