教与学优化(teaching-learning-based optimization,TLBO)算法是由Rao等[1]在2011年首次提出的群智能优化算法,通过教学过程中的教师教学与学生学习2个过程来实现. 与遗传算法、粒子群优化算法、模拟退火算法、禁忌搜索等传统的进化算法相比,TLBO算法具有实现简单、参数设置少、并行度高、收敛稳定等优点,一经提出就受到学者的普遍关注,并且在函数优化[2-3]、工程优化[4-5]和多目标优化[6-7]等领域得到了广泛的应用.
TLBO算法虽然在求解低维单峰值问题时表现出很好的求解效率和性能,但是在求解高维多峰复杂问题时同样容易陷入局部最优,算法的收敛速度和精度都不理想. 许多学者进行了改进TLBO算法的研究. Rao等[8]在TLBO算法中加入精英机制,提出精英TLBO算法,增强了算法的寻优能力. Satapathy等[9]在TLBO算法的教师和学生阶段加入随进化呈代数线性变化的权重因子,平衡了算法的全局搜索和局部探测能力. Chen等[10]将发现-搜索模型与TLBO算法相结合,有效地降低了原始TLBO算法的计算成本,取得了较好的求解效果. Zhang等[11]在TLBO算法中融合了单纯形算法的局部优化思想,通过反射、扩展、收缩和缩减运算符迭代寻优,提高了算法的收敛精度. 毕晓君等[12]在TLBO算法的学习阶段融合了差分进化算法的变异策略,在进化后期加入了个体扰动,提高了算法的优化性能. Zou等[13]提出基于局部学习和排斥学习的教与学优化算法,在算法中加入结合历史信息的自学习方法和每隔一定代数后的种群再分组操作. 童楠等[14]提出基于反思的教与学优化算法,即在教学和学习阶段都加入个体的反思机制,提高了算法的寻优性能. 于坤杰等[15]在精英教学优化算法的基础上,提出反馈精英教学优化算法,通过在学习阶段之后加入反馈阶段,增加了种群的多样性,提高了算法的全局搜索能力. Yu等[16]将学习反馈、差分进化算法的变异交叉操作和混沌扰动机制融入TLBO算法,提出了改进的教与学优化算法. Yu等[17]提出解决约束优化问题的改进约束教与学优化算法,在教学阶段将种群划分为若干个子种群,子种群通过自身的均值个体和最优个体来引导进化,子种群间的信息交互能够有效抑制早熟收敛,并且在学习阶段提出了新的学习策略来改进种群的多样性.
进化过程中陷入局部最优仍然是TLBO算法和改进TLBO算法面临的主要问题,虽然当前的改进方法在一定程度上提高了算法的收敛性能,但是与非TLBO的进化算法和变体相比,TLBO算法仍需要较大的改进[12,18]. 目前原始TLBO算法和改进TLBO算法集中于对种群个体进行全维度变量的更新,几乎没有关于局部维度变量更新的研究. 实际上,在算法进化的前期,进行个体的全维度更新有利于算法的全局搜索,但是在进化的后期,个体的局部维度更新更有利于算法的局部探测,加速算法的收敛速度和精度. 增加种群的多样性是TLBO算法跳出局部最优的有效方法,但是当前增加种群多样性的改进方法主要有个体邻域重组[13,18-19]、混合其他搜索模型[10,16,20-21]、个体扰动[12]等方式,用到的信息依然来自于种群内部,在进化后期种群的个体大量趋同时,对种群多样性的改进较少,削弱了算法跳出局部最优的能力.
提出基于个体局部维度改进的教与学优化(local-dimension-improved TLBO,LDimTLBO)算法. 在教学和学习阶段,在原有的个体更新公式上加入更新个体局部维度的操作,保证算法在进化的后期进行更加细致的局部搜索,提高算法的收敛速度和精度. 在教和学的基础上,增加个体的自学习阶段,使用个体历史最优位置和搜索边界信息指导自学习,增加种群的多样性,提升算法跳出局部最优的能力.
1 教与学优化算法 1.1 教学阶段1个班级为1个种群,种群中的最优个体为教师,剩余个体为学生. 教师根据班级的平均水平采对学生进行教学:
${{X}}_i^{{\rm{new}}} = {{{X}}_i} + {r_i}({{ X}_{{\rm{teacher}}}} - {T_{\rm{F}}}{{ X}_{{\rm{mean}}}}),$ | (1) |
${T_{\rm{F}}} = {\rm round}\;(1 + {\rm rand}\;(0,1)). $ | (2) |
式中:
学习阶段即班级中的学生互相学习的过程:
$\begin{array}{l}{{X}}_i^{{\rm{new}}} = \left\{ \begin{array}{l}{{{X}}_i} + {r_i}({{{X}}_i} - {{{X}}_j}),\;f({{{X}}_i}) < f({X_j}),\;i\ne j;\\{{{X}}_i} + {r_i}({{{X}}_j} - {{{X}}_i}),\;f({{{X}}_i}) > f({X_j}),\;i \ne j.\end{array} \right.\;\;\\\end{array}$ | (3) |
式中:
从原始TLBO和变体算法中可以看出,无论是在教学阶段还是学习阶段,个体的更新都是全维度进行的,这使得一些高质量连续维度变量在进化的过程中遭受破坏,无法保留到下一代种群中,降低了算法局部搜索的精确度. 在进化的后期,全维度进行的个体更新对准确查找最优解的影响更为明显. 此时大量个体的高质量局部维度的值已经非常接近甚至等于最优解相应维度的值,即使是对局部维度的细微修改也会使得更新后的函数值与最优值产生10倍以上的偏离,出现进化停滞的现象,即种群中的最好解总是在问题的最优解或局部最优解附近来回跳跃,无法找到最优解或是更好的局部最优解. 在进化的过程中,个体的一些高质量连续局部维度值应该保留到下一代个体中,当前代只对质量较差的局部维度值进行更新.
局部维度改进策略的实现步骤如下. 随机产生整数
查找个体
1)令
2)在
3)计算
4)如果
5)返回
显然,该操作的时间复杂度为
基于局部维度改进策略,提出混合教学方法:
${{X}}_i^{{\rm{new}}} = \eta (1 - {t / {{T_{\max }}}}){{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{1}}}} + ({t / {{T_{\max }}}}){{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{2}}}}. $ | (4) |
式中:
${{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{2}}}{\rm{sub}}} = {{X}}_i^{{\rm{sub}}} + r({{X}}_{{\rm{firstteacher}}}^{{\rm{sub}}} - {{X}}_i^{{\rm{sub}}}),$ | (5) |
${{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{2}}}} = {{X}}_i^{{\rm{su}}{{\rm{b}}_{\rm{1}}}} \cup {{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{2}}}{\rm{sub}}} \cup {{X}}_i^{{\rm{su}}{{\rm{b}}_{\rm{2}}}}. $ | (6) |
式中:
由式(4)可知,在算法迭代的早期,
基于局部维度改进的混合教学方法兼顾了算法早期的全局搜索和后期的局部探测,既保证了算法大范围的广度搜索(跳出局部最优),又保证了算法小范围的精细探测(更接近全局最优).
2.3 基于局部维度改进的学习阶段基于局部维度改进策略,提出混合的学习方式:
${{X}}_i^{{\rm{new}}} = \eta (1 - {t / {{T_{\max }}}}){{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{3}}}} + ({t / {{T_{\max }}}}){{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{4}}}}. $ | (7) |
式中:
${{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{4}}}{\rm{sub}}} = \left\{ \begin{array}{l}{{X}}_i^{{\rm{sub}}} + {r_1} ({{X}}_{{\rm{teacher}}}^{{\rm{sub}}} - {{X}}_i^{{\rm{sub}}}) + {r_2}({{X}}_{{\rm{mean}}}^{{\rm{sub}}} - {{X}}_i^{{\rm{sub}}}),\\\qquad f({{X}}_{{\rm{teacher}}}^{{\rm{sub}}}) < f({{X}}_i^{{\rm{sub}}});\\{{X}}_i^{{\rm{sub}}} + {r_1}({{X}}_i^{{\rm{sub}}} - {{X}}_{{\rm{teacher}}}^{{\rm{sub}}}) +{r_2}({{X}}_i^{{\rm{sub}}} - {{X}}_{{\rm{mean}}}^{{\rm{sub}}}), \\\qquad f({{X}}_{{\rm{teacher}}}^{{\rm{sub}}}) > f({{X}}_i^{{\rm{sub}}}),\end{array} \right.$ | (8) |
${{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{4}}}} = {{X}}_i^{{\rm{su}}{{\rm{b}}_{\rm{1}}}} \cup {{X}}_i^{{\rm{ne}}{{\rm{w}}_{\rm{4}}}{\rm{sub}}} \cup {{X}}_i^{{\rm{su}}{{\rm{b}}_{\rm{2}}}}. $ | (9) |
式中:r1为[0,1.0]的随机数,r2为[−1.0,1.0]的随机数,
式(7)的构建方式与式(4)相同,寻优方式的原理与2.2节中相同. 由式(8)可知,
虽然前2个阶段在一定程度上增加了种群的多样性,但是在种群进化的后期仍然会出现个体大量趋同的情况,为了增加种群的多样性、跳出局部最优,提出基于个体历史最优位置和搜索边界的个体扰动方式,增加自学习阶段.
${{X}}_i^{{\rm{new}}} = \left\{ \begin{array}{l}{{{X}}_i} + {r_1}({{X}}_i^{{\rm{sofarbest}}} - {{{X}}_i}) +{r_2}({{{X}}_i} - {{L}}),\;{r_2} < 0;\\{{{X}}_i} + {r_1}({{X}}_i^{{\rm{sofarbest}}} - {{{X}}_i}) +{r_2}({{U}} - {{{X}}_i}),\;{r_2} > 0 .\end{array} \right.$ | (10) |
式中:
由式(10)可知,个体的自学习完全不依赖种群中其他个体的信息,
在学生个体的更新过程中,经常会出现某些维度变量的值超出可行域的情况,必须对个体进行域约束操作. 当前约束域主要采取直接将超出边界值的维度变量设置为边界值的方式,许多维度的变量值可能无法反映出公式计算后值的变化趋势,丢失种群进化过程中的有用信息. 提出基于循环重置的域约束操作方法:
${x_{ij}} = \left\{ \begin{gathered} {x_{ij}} + \left\lfloor {\frac{{{m_j} - {x_{ij}}}}{{{a_j}}}} \right\rfloor {l_j},\;\;{x_{ij}} < {l_j}; \hfill \\ {x_{ij}} - \left\lfloor {\frac{{{x_{ij}} - {m_j}}}{{{a_j}}}} \right\rfloor {l_j},\;\;{x_{ij}} > {u_j}. \hfill \\ \end{gathered} \right.$ | (11) |
式中:
LDimTLBO算法的实现流程如图1所示.
![]() |
图 1 局部维度改进的教与学优化算法流程图 Fig. 1 Flowchart of local-dimension-improved teaching-learning-based optimization algorithm |
使用Java编程实现LDimTLBO,测试机CPU的主频为3.0 G,内存为4 GB,操作系统为Windows 7. 为了验证算法的有效性,分别对10个通用的标准Benchmark函数进行仿真测试,与原始TLBO算法以及最近新提出的改进效果较好的RTLBO算法[14]、DSTLBO算法[12]、DRLTLBO算法[13]和非TLBO的SaDE[22]算法进行对比. Benchmark函数的表达式和搜索范围如表1所示. 为了更好地检测算法的全局搜索性能,将函数f4~f7的搜索范围扩展到[−100,100],f1~f5是单峰函数,f6~f10是多峰函数,这些函数具有不同的特点,都能从收敛精度和收敛速度方面测试不同算法的性能,具有很好的普遍性.
![]() |
表 1 Benchmark函数的表达式和搜索范围 Table 1 Formulas and ranges of Beanchmark functions |
除了3.2节的实验,后续所有的测试实验中的算法的种群大小设置为50,决策变量的维度设置为50,LDimTLBO算法的参数
从局部维度质量改变与全局维度质量改变的相关性、相关性与算法收敛精度和速度的关系、折扣因子
为了说明局部维度质量(函数值)改变与全局维度质量改变的相关性,设置衡量指标为PCwPCh(正相关且积极改变)、PCwNCh(正相关但消极改变)、NCwPCh(负相关且积极改变)、NCwNCh(负相关但消极改变)、UCwPCh(不相关且积极改变)、UCwNCh(不相关但消极改变)、UCwUCh(不相关且无改变)等相关性出现次数的百分比,用
![]() |
表 2 局部维度质量改变与全局维度质量改变的相关性 Table 2 Correlation between local dimension quality change and global dimension quality change |
![]() |
表 3 不同
|
![]() |
图 2
|
1)如表2所示,各列中都存在不为0的值,表明局部维度质量的改变与全局维度质量的改变存在不同的相关性,这是因为局部维度变量值改变后,局部维度和全局维度质量的变化情况由变量值改变的情况和函数表达式决定. 因此,当局部维度质量改进后,全局维度质量不一定会改进,甚至会变差(如表2中的
2)当算法迭代次数固定,局部维度质量和全局维度质量的相关性主要表现为非负相关(即负相关的比例较小)时,这种情况能够有效地提高算法的收敛速度和精度. f2函数的求解过程反映了这种情况,当
3)合适的
从两方面验证提出的自学习策略的有效性:比较使用和未使用自学习策略的LDimTLBO算法;将自学习策略用于其他算法,比较使用前后的效果. 选用TLBO作为对比算法,构造4种不同的算法进行比较:LDimTLBO、LDimTLBO-SL(不使用自学习策略)、TLBO、TLBO+SL(使用自学习策略). 选用函数f5(Rosenbrock)作为测试函数,Rosenbrock是一种典型的病态非凸单峰函数,极难搜索全局最优解,非常适用于测试算法的收敛性能. 使用4种算法分别对Rosenbrock函数进行20次独立测试,计算出函数最优值的平均值和标准差,结果如表4所示. 绘制出算法的平均收敛曲线,如图3所示.
![]() |
表 4 自学习策略对LDimTLBO、LDimTLBO-SL、TLBO、TLBO+SL算法收敛结果的影响 Table 4 Influence of self-learning strategy on convergence results of LDimTLBO,LDimTLBO-S,TLBO and TLBO+SL |
![]() |
图 3 自学习策略对算法收敛过程的影响 Fig. 3 Influence of self-learning strategy on convergence process |
由表4可知,使用了自学习策略的算法LDimTLBO和TLBO+SL的函数值更小,收敛结果明显优于未使用自学习策略的算法LDimTLBO-SL和TLBO,说明自学习策略有利于提高种群的多样性,提高算法的收敛精度. 由图3可知,未使用自学习策略的TLBO和LDimTLBO-SL算法出现了早熟收敛的情况,进行10 000次函数评价后,算法已经陷入了局部最优,之后求得的函数最优值没有变化,使用了自学习策略的LDimTLBO和TLBO+SL在进化到EFs=10 000时,已经收敛到精度较高的函数值,说明自学习策略有利于加速算法的收敛. 在进一步的进化过程中,TLBO+SL获得的最优值只出现了细微的改善,LDimTLBO仍然可以使种群获得进一步的进化,求得更好的最优解. 这是因为局部维度改进策略有利于算法进行更加细粒度的搜索,与自学习策略的综合作用可以更好地平衡算法的全局搜索和局部探测能力. 自学习策略是有效的,可以增加种群的多样性,使算法跳出局部最优,提高算法的收敛速度和精度.
3.4 LDimTLBO算法整体性能验证使用LDimTLBO算法、TLBO算法、RTLBO算法、DSTLBO算法、DRLTLBO算法分别独立运行测试函数20次,所得的平均函数最优值、标准差和平均运行时间如表5所示,绘制出算法的平均收敛曲线图,如图4所示.
![]() |
表 5 LDimTLBO、TLBO、RTLBO、DSTLBO、DRLTLBO、SaDE算法的收敛结果对比 Table 5 Comparison of convergence results of LDimTLBO,TLBO,RTLBO,DSTLBO,DRLTLBO and SaDE |
![]() |
图 4 LDimTLBO、TLBO、RTLBO、DSTLBO、DRLTLBO、SaDE算法的收敛曲线 Fig. 4 Convergence curves of LDimTLBO, TLBO, RTLBO, DSTLBO, DRLTLBO and SaDE |
从收敛精度、收敛速度、运行时间3个方面分析各算法的收敛性能.
1)收敛精度. 由表5可知,LDimTLBO对单峰函数f1~f4都能求得函数的理论最优值,并且标准差为0,具有较好的鲁棒性;其他5种算法都没有求得函数的最优值,说明LDimTLBO的收敛精度和稳定性更好. 单峰函数f5的全局最优解极难搜索,TLBO、RTLBO、DSTLBO、DRLTLBO和SaDE都陷入了局部最优,求解精度不高,LDimTLBO虽然没有求得到函数的理论最优值,但是求解精度明显高于其他5种算法,这主要得益于基于个体局部最优和搜索边界的自学习策略的扰动作用. LDimTLBO对多峰函数f7~f9都求得了函数的理论最优值. 对于存在大量局部极值点的多峰函数f6和f10,LDimTLBO的求解质量和稳定性明显优于其他5种算法,其他5种算法对f10函数都过早陷入了局部最优. 观察各算法最终求得的解,发现TLBO、RTLBO、DSTLBO、DRLTLBO这4种算法的解普遍存在维度变量值严重偏离最优解相应维度的值的情况,SaDE求得的维度值偏差较小,LDimTLBO求得的维度值偏差最小,求解精度至少提高了102~105倍,说明LDimTLBO明显优于其他5种算法. 局部维度改进策略使得高质量的维度值在进化的过程中得以保留,质量较差的维度值不断得到改进,自学习策略的扰动作用使得LDimTLBO在进化的后期也能朝最优解的方向变化.
2)收敛速度. 由图4可知,与其他5种算法相比,LDimTLBO的收敛速度有较大幅度的提升,FEs<10 000这一段的收敛曲线的斜率更大. 对于函数f1~f4,LDimTLBO在EFs>35 000时已经收敛到函数的理论最优值;对于函数f5、f10,LDimTLBO在EFs=20 000时求得了优于其他算法的精度较高的值,并且在EFs>20 000的进化后期还能进一步找到更好的解;对于函数f6,LDimTLBO在EFs=10 000求得的函数精度已经高于其他算法,不过在进化的后期出现了停滞的情况;对于函数f7~f9,LDimTLBO在EFs
3)运行时间. 根据“无免费午餐”理论[24],1个算法不可能在所有指标或每个求解问题上都优于其他算法,同样LDimTLBO也存在这种情况. 虽然LDimTLBO在收敛精度和速度上都表现出较大的优势,但是平均运行时间明显多于其他算法. 因为在LDimTLBO的教与学2个阶段都融入了局部维度改进策略,在每个个体中查找函数值最大的子向量,需要较多的计算时间. 在一次迭代中,LDimTLBO的时间复杂度为
但是,LDimTLBO具有较好的收敛精度和速度,并不需要在EFs达到最大值时才停止搜索. 由图4可知,当EFs达到maxEFs的一半时,LDimTLBO已经收敛稳定,在保证收敛精度的前提下,可以通过减少算法的迭代次数缩短运行时间. 除了使用最大函数评价次数或迭代次数作为算法的终止条件外,当最优个体(即求得的函数精度)连续多代都没有改进时,也可终止算法运行.
4 结 语提出了局部维度改进的教与学优化算法(LDimTLBO). 局部维度改进是比当前已有局部搜索方法更加细粒度的一种局部搜索策略,不断在后代中扩散高质量的局部维度信息,不断改善低质量的局部维度信息. 将局部维度改进策略融入原有的教与学阶段,平衡了算法早期的全局搜索能力和后期的局部探测能力. 提出了基于个体最优位置和搜索边界信息的自学习扰动策略,作为自学习阶段加入LDimTLBO中. 自学习策略对复杂的单、双峰函数的测试结果表明,自学习策略能够有效增加种群的多样性,算法在搜索的后期仍有机会找到更好的解. 自学习策略也适用于TLBO和变体算法,多种策略的综合作用使得LDimTLBO无论在收敛精度还是速度上都明显优于其他的优秀的改进TLBO算法. 下一步的工作将研究LDimTLBO在实际的工程优化问题,特别是组合优化问题上的有效性.
[1] |
RAO R V, VSAVSANI V J, VAKHARIA D P. Teaching-learning-based optimization: a novel method for constrained mechanical design optimization problem[J]. Computer-Aided Design, 2011, 43(3): 303-315. DOI:10.1016/j.cad.2010.12.015 |
[2] |
RAO R V, SAVSANI V J, VAKHARIA D P. Teaching-learning-based optimization: an optimization method for continuous non-linear large scale problems[J]. Information Sciences, 2012, 183(1): 1-15. DOI:10.1016/j.ins.2011.08.006 |
[3] |
RAO R V, SAVSANI V J, VAKHARIA D P. Teaching-learning-based optimization algorithm for unconstrained and constrained real-parameter optimization problems[J]. Engineering Optimization, 2011, 44(12): 1447-1462. |
[4] |
RAO R V, KALYANKAR V D. Parameter optimization of modern machining processes using teaching-learning-based optimization algorithm[J]. Engineering Applications of Artificial Intelligence, 2013, 26(1): 524-531. DOI:10.1016/j.engappai.2012.06.007 |
[5] |
DEGERTEKIN S O, HAYALIOGLU M S. Sizing truss structures using teaching-learning-based optimization[J]. Computers and Structures, 2013, 119: 177-188. DOI:10.1016/j.compstruc.2012.12.011 |
[6] |
NIKNAM T, GOLESTANEH F, SADEGHI M S. θ-multi-objective teaching-learning-based optimization for dynamic economic emission dispatch[J]. IEEE Systems Journal, 2012, 6(2): 341-352. DOI:10.1109/JSYST.2012.2183276 |
[7] |
PATEL V K, SAVSANI V J. A multi-objective improved teaching-learning based optimization algorithm (MO-ITLBO)[J]. Information Sciences, 2016, 357: 182-200. DOI:10.1016/j.ins.2014.05.049 |
[8] |
RAO RV, PATEL V. An elitist teaching-learning-based optimization algorithm for solving complex constrained optimization problems[J]. International Journal of Industrial Engineering Computations, 2012, 3(4): 535-560. DOI:10.5267/j.ijiec |
[9] |
SATAPATHY S C, NAIK A, PARVATHI K. Weighted teaching-learning-based optimization for global function optimization[J]. Applied Mathematics, 2013, 4(3): 429-439. DOI:10.4236/am.2013.43064 |
[10] |
CHEN D B, ZOU F, WANG J, et al. A teaching-learning-based optimization algorithm with producer-scrounger model for global optimization[J]. Soft Computing, 2015, 19(3): 745-762. DOI:10.1007/s00500-014-1298-5 |
[11] |
ZHANG H, LI B, ZHANG J, et al. Parameter estimation of nonlinear chaotic system by improved TLBO strategy[J]. Soft Computing, 2016, 20(12): 4965-4980. DOI:10.1007/s00500-015-1786-2 |
[12] |
毕晓君, 王佳荟. 基于混合学习策略的教与学优化算法[J]. 浙江大学学报: 工学版, 2017, 51(5): 1024-1031. BI Xiao-jun, WANG Jia-hui. Teaching-learning-based optimization algorithm with hybrid learning strategy[J]. Journal of Zhejiang University: Engineering Science, 2017, 51(5): 1024-1031. |
[13] |
ZOU F, CHEN D, LU R, et al. Teaching-learning-based optimization with differential and repulsion learning for global optimization and nonlinear modeling[J]. Soft Computing, 2018, 22(21): 7177-7205. DOI:10.1007/s00500-017-2722-4 |
[14] |
童楠, 符强, 钟才明. 一种基于反思机制的教与学优化算法[J]. 计算机应用研究, 2018(12): 1-6. TONG Nan, FU Qiang, ZHONG Cai-ming. Improved TLBO algorithm based on reflection mechanism[J]. Application Research of Computers, 2018(12): 1-6. |
[15] |
于坤杰, 王昕, 王振雷. 基于反馈的精英教学优化算法[J]. 自动化学报, 2014, 40(9): 1976-1983. YU Kun-jie, WANG Xin, WANG Zhen-lei. Elitist teaching-learning-based optimization algorithm based on feedback[J]. Acta Automatica Sinica, 2014, 40(9): 1976-1983. |
[16] |
YU K J, WANG X, WANG Z L. An improved teaching-learning-based optimization algorithm for numerical and engineering optimization problems[J]. Journal of Intelligent Manufacturing, 2016, 27(4): 831-843. DOI:10.1007/s10845-014-0918-3 |
[17] |
YU K J, WANG X, WANG Z L. Constrained optimization based on improved teaching-learning-based optimization algorithm[J]. Information Sciences, 2016, 352: 61-78. |
[18] |
CHEN D B, ZOU F, LI Z, et al. An improved teaching-learning-based optimization algorithm for solving global optimization problem[J]. Information Sciences, 2015, 297: 171-190. DOI:10.1016/j.ins.2014.11.001 |
[19] |
ZOU F, WANG L, HEI X H, et al. Teaching-learning-based optimization with dynamic group strategy for global optimization[J]. Information Sciences, 2014, 273: 112-131. DOI:10.1016/j.ins.2014.03.038 |
[20] |
ZOU F, CHEN D, WANG J T. An improved teaching-learning-based optimization with the social character of PSO for global optimization[J]. Computational Intelligence and Neuroscience, 2016, 2016(2): 1-10. |
[21] |
WANG L, ZOU F, HEI X H, et al. A hybridization of teaching-learning-based optimization and differential evolution for chaotic time series prediction[J]. Neural Computing and Applications, 2014, 25(6): 1407-1422. DOI:10.1007/s00521-014-1627-8 |
[22] |
QIN A K, HUANG V L, SUGANTHAN P N. Differential evolution algorithm with strategy adaptation for global numerical optimization[J]. IEEE Transactions on Evolutionary Computation, 2009, 13(2): 398-417. DOI:10.1109/TEVC.2008.927706 |
[23] |
赵乃刚. 求解无约束优化问题的改进教与学优化算法[J]. 小型微型计算机系统, 2017, 38(9): 2107-2112. ZHAO Nai-gang. Improved teaching-learning-based optimization algorithm for unconstrained optimization problems[J]. Journal of Chinese Computer Systems, 2017, 38(9): 2107-2112. DOI:10.3969/j.issn.1000-1220.2017.09.035 |
[24] |
WOLPERT D H, MACREADY W G. No free lunch theorems for optimization[J]. IEEE Transactions on Evolutionary Computation, 1997, 1(1): 67-82. DOI:10.1109/4235.585893 |