0 引 言
在求解范围内无解(解为空集)的方程组称为该范围内的矛盾方程组。矛盾方程组在实际生活中应用广泛,通常采用最小二乘法求解,其基本思想是寻找一组解x ˜ ,使得方程组两端的偏差向量的2-范数平方最小。近年来,基于最小二乘法的新算法不断涌现,如JIANG[1 ] 系统阐述了最小二乘有限元法;李玉良等[2 ] 依据圣维南原理,提出了基于最小二乘法的复杂局部边界结构载荷误差消减算法。
随着信息技术的发展,实际遇到的矛盾方程组规模都较大。当方程组规模过大时,用传统的最小二乘法求解,计算、存储均较复杂,且误差较大,需要寻找更好的算法。例如,将最小二乘与随机算法相结合[3 ] ,运用机器学习改进最小二乘法的计算精度[4 ] 等。
机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题。其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛。SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题。例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模。SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内。赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件。鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究。鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较。
1 矛盾方程组的最小二乘解
a 11 x 1 + a 12 x 2 + ⋯ + a 1 n x n = y 1 , a 21 x 1 + a 22 x 2 + ⋯ + a 2 n x n = y 2 , ⋯ a m 1 x 1 + a m 2 x 2 + ⋯ + a m n x n = y m , (1)
a 11 a 12 ⋯ a 1 n a 21 a 22 ⋯ a 2 n ⋮ ⋮ ⋮ a m 1 a m 2 ⋯ a m n x 1 x 2 ⋮ x n = y 1 y 2 ⋮ y m , (2)
令A = a 11 a 12 ⋯ a 1 n a 21 a 22 ⋯ a 2 n ⋮ ⋮ ⋮ a m 1 a m 2 ⋯ a m n ,x = x 1 x 2 ⋮ x n ,y = y 1 y 2 ⋮ y m ,a i j = a i j ( x ) ,则式(2)可简写为A x = y 。
通常,若没有任何一组解使得式(1)准确成立,则称该方程组为矛盾方程组。希望可以找到一组数x ˜ = ( x 1 , x 2 , ⋯ , x n ) T ,使方程组两端的偏差向量( δ 1 , δ 2 , ⋯ , δ m ) T δ i = ∑ j = 1 m a i j x j - y i 的2-范数平方最小。这种以偏差平方和最小为求解标准的方法,称为最小二乘法[11 -12 ] 。
Q ( x 1 , x 2 , ⋯ , x n ) = ∑ i = 1 m δ i 2 = ∑ i = 1 m ∑ j = 1 n a i j x j - y i 2 ,一般采用多元函数求极值的方法得到对应的法方程组(正规方程组),王萼芳等[13 ] 基于内积理论对法方程组解的存在性问题进行了讨论。令
∂ Q ∂ x k = ∑ i = 1 m ∑ k = 1 n a i k x k - y i a i j = 2 ( a 1 k , a 2 k , … , a m k ) ( A x - y ) = 2 A T ( A x - y ) = 0 , k = 1,2 , ⋯ , n , (3)
找到极值点,则有A T A x = A T y 。如果矩阵A 为列满秩矩阵,则法方程组的解存在且唯一。
2 机器学习法求解矛盾方程组
将最小二乘法运用于SVM,在优化问题的目标函数中使用2-范数,用等式约束条件代替SVM标准算法中的不等式约束条件,得到LS-SVM[7 ] 。SVM与LS-SVM的区别主要表现在:
(1) 优化问题的构造不同,SVM采用的目标函数为误差因子的一次项,约束条件为不等式约束;LS-SVM具有最小二乘的性质,采用的目标函数为平方项,约束条件为等式约束。
(2)在求解二次规划(quadratic programming,QP)问题时,SVM的变量维数与训练样本的个数相同,求解过程中矩阵元素的个数是训练样本个数的平方,当数据规模较大时,SVM的求解规模也随之增大;LS-SVM则通过求解线性方程组得到最终的决策函数,在一定程度上求解难度较SVM大大降低,求解速度更快,适用于求解大规模问题。
(3)SVM可通过求解QP问题获得理论上的全局最优解,因为大部分的Lagrange乘子为零,最终的决策函数只能依赖于少量数据,即支持向量,从而体现了SVM中解的稀疏性特点。LS-SVM采用误差平方项以及等式约束条件来优化问题,将SVM中的QP问题转化为求解线性方程组,使得Lagrange乘子与误差项相关,其最终决策函数与所有样本相关。
因此,LS-SVM在计算时间、计算复杂度和精确度上均优于SVM。鉴于此,本文运用LS-SVM求解大规模矛盾方程组。
2.1 LS-SVM
令数据集D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } ,x i ∈ R n 为样本解向量,y i ∈ R 为方程组右端项,其中i = 1,2 , ⋯ , m 。可将式(2)的最小二乘求解问题转化为关于数据集D 的优化问题,目标函数为
m i n ω , ε J ( ω , ε ) = 1 2 | | ω | | 2 + 1 2 γ ∑ i = 1 m ε i 2 ,(4)
其中,ω , ε 为参数,γ 为正则化参数,ε i = f ( x i ) - y i , i = 1,2 , … , m 。假设采用Lagrange乘子法将优化问题转化为对单一参数α 的求极值问题,
L ( ω , b , ε ; α ) = J ( ω , ε ) - ∑ i = 1 m α i { ω T x i + b + ε i - y i } , (5)
∂ L ∂ ω = 0 → ω = ∑ i = 1 m α i x i , ∂ L ∂ b = 0 → ∑ i = 1 m α i = 0 , ∂ L ∂ ε i = 0 → α i = γ ε i , ∂ L ∂ α i = 0 → ω T x ˜ + b + ε i - y i = 0 , (6)
0 1 v T 1 v x i T x ˜ + I / γ b α = 0 y ,(7)
其中,b 为参数。求解式(6)可得LS-SVM线性回归函数:
f x = ∑ i = 1 m α i x i T x ˜ + b 。(8)
针对非线性问题,可引入核函数,用核函数代替线性方程组中的线性项,将原线性算法“非线性化”,即非线性回归。若φ x ˜ 表示将x ˜ 映射后的特征向量,则最终的LS-SVM非线性回归函数为
f x ˜ = ∑ i = 1 m α i K ( x ˜ , x i ) + b , (9)
K ( x ˜ , x i ) = φ ( x i ) T φ ( x ˜ ) , i = 1,2 , ⋯ , m 。(10)
常用的核函数主要有线性核函数、多项式核函数、高斯核函数等[14 ] ,本文采用目前较常用的高斯核函数[15 ] 。高斯核函数是一种径向基函数(radial basis function,RBF),是沿径向对称的标量函数,定义为空间中任一点x 与某一中心x c 之间欧氏距离的单调函数,其作用往往是局部的,即当x 远离x c 时函数值很小。高斯核函数的表达式为
K ( x , x c ) = e x p - | | x - x c | | 2 2 / 2 σ 2 ,(11)
其中,K 为核,x c 为核函数中心,σ 为函数的宽度参数,用以控制函数的径向作用范围。高斯核函数的正则化项[16 ] 为
| | P f | | 2 = ∫ ∑ n σ 2 n n ! 2 n [ O n f ( x ) ] 2 d x ,(12)
其中,O 2 n = Δ n ,O 2 n + 1 = ∇ Δ n ,Δ 为拉普拉斯算子,∇ 为梯度算子。
由于式(12)中函数f 的所有阶导数均增加了惩罚因子,所以对SVM采用RBF可获得一个非常平滑的估计。同时由于K 的范围为( 0 , 1 ) ,因此计算过程相对简单。
2.2 算法步骤
第1 步 将矛盾方程组求解问题转化为凸优化问题,建立优化目标函数;
第2 步 构建Lagrange函数,利用Lagrange乘子法将优化问题转化为对单一参数α 的求极值问题;
第4 步 将解代入原始模型即为训练所得线性模型;用φ ( x ) 表示将x 映射后的特征向量,得到相应的最终LS-SVM非线性回归函数;
第5 步 将数据代入模型,得到实验结果,即最终预测值。
3 数值算例
实际问题包括单变量问题和多变量问题,数据一般分为线性和非线性两大类,运用LS-SVM进行算例分析,数据量为1 000~7 000,以验证算法性能。算例1~算例3中数据是通过随机取样方法产生10-3 ~10-2 的振幅,将原函数值加上或减去该振幅得到的。算例4~算例8中数据集均来自加州大学欧文分校机器学习数据库(UCI Machine Learning Repository,http://archive.ics.uci.edu/ml/index.pdf )。
为便于对比,所有数值算例结果均显示部分数据,且分为上、下两图,上图为训练集预测结果,下图为测试集预测结果,图中纵坐标Yt 表示最终预测值。训练集主要用于训练模型,测试集主要用于测试模型的优劣。
3.1 单变量线性矛盾方程组求解
算例1 函数y = x 5 - 600 上下扰动所得数据为y * 。
该算例属于一元线性问题,共5 000组数据,随机选取3 500组为训练集,剩余1 500组为测试集,进行两组实验,实验1和实验2的测试集分别为( x i , y i * ) , ( x i , x i / 5 - 600 ) ,i = 1,2 , … , 1 500 。如图1 所示,在实验1中,R 2 达0.962,在实验2中,R 2 达0.999,拟合效果非常好。结果表明,在大数据量的情况下,拟合度依然较高。
图1
图1
算例1数值结果
实验1的核函数参数为γ = 17 , σ = 2 ;实验2的核函数参数为γ =40,σ =2。
Fig.1
Numerical results of example 1
Parameters in the kernel function of experiment 1 are γ = 17 , σ = 2 ;
parameters in the kernel function of experiment 2 are γ =40,σ =2.
3.2 多变量线性矛盾方程组求解
算例2 函数y = 3 | x 1 | - 2 | x 2 | + 3 x 3 上下扰动所得数据为y * 。
该算例属于三元线性问题,共5 000组数据,随机选取4 000组为训练集,剩余1 000组为测试集。如图2 所示,两次实验的R 2 均为0.990以上,拟合效果非常好。结果表明,大数据量并不影响多元线性问题的拟合效果,可以很好地对原函数进行近似。
图2
图2
算例2数值结果
实验1和实验2的核函数参数均为γ = 20 , σ = 2 。
Fig.2
Numerical results of example 2
Parameters in kernel function of experiment 1 and experiment 2 are γ =20,σ =2.
3.3 单变量非线性矛盾方程组求解
算例3 函数y = 10 s i n ( x ) 上下扰动后所得数据为y * 。
该算例属于一元三角函数拟合问题,共6 000组数据,随机选取4 500组为训练集,剩余1 500组为测试集,满足LS-SVM对训练集和测试集的要求。实验1的测试集真实值为 y * ,实验2的测试集真实值为y , 预测结果如图3 所示。可知,实验1的R 2 = 0.837 ,表明三角函数具有较好的拟合效果。实验2的R 2 = 0.845 ,表明y 具有较好的拟合效果。
图3
图3
算例3数值结果
实验1的核函数参数为γ = 10 , σ = 1.47 × 10 - 7 ;实验2的核函数参数为γ = 10 , σ = 1 × 10 - 7
Fig.3
Numerical results of example 3
Parameters in the kernel function of experiment 1 are γ = 10 , σ = 1.47 × 10 - 7 ;
parameters in the kernel function of experiment 2 are γ = 10 , σ = 1 × 10 - 7 .
3.4 多变量非线性矛盾方程组求解
算例4 Airfoil_self_noise数据集预测。
该数据集来自美国航空航天局(NASA)在消声风洞中进行的二维和三维翼型叶片剖面的一系列空气动力学和声学试验。其中,机翼的跨度、观察者的位置不变。共1 503组数据,5个属性值,随机选取1 150组为训练集,其余353组为测试集。预测结果如图4 所示,经过多次实验,最佳R 2 = 0.889 ,拟合效果较好,本算例数据量较小,实验结果较好,可以采用该模型进行数据预测。
图4
图4
算例4数值结果
核函数参数为γ = 150 , σ = 0.1 。
Fig. 4
Numerical results of example 4
Parameters in the kernel function are γ = 150 , σ = 0.1 .
该数据集包含由11个传感器测量的36 733个实例,是土耳其西北部地区燃气轮机1 h内的数据汇总(平均值或总和),目的是研究烟气排放,即一氧化碳和氮氧化物。本实验仅选取2011年的数据,共7 411组,输出值为一氧化碳排放量。随机选取6 000组为训练集,其余1 411组为测试集。预测结果如图5 所示,R 2 = 0.909 ,拟合效果较好,可以根据此模型预测气体排放量。该算例的数据量较算例4大幅增加,有7 000多组数据,但预测结果并未变差。
图5
图5
算例5数值结果
核函数参数为γ = 1 800 , σ = 30 。
Fig.5
Numerical results of example 5
Parameters in the kernel function are γ = 1 800 , σ = 30 .
算例6 parkinsons_updrs数据集预测
该数据集为由Athanasios Tsanas创建、Max Little与美国10个医疗中心、英特尔公司合作开发的远程监控设备所记录的语音信号。最初使用一系列线性和非线性回归方法预测临床医生在UPDRS量表上的帕金森病症状评分。共5 875组数据,26个属性值,随机选取4 000组作为训练集,其余1 875组作为测试集。预测结果如图6 所示,R 2 = 0.983 ,非常接近于1,实验结果表明,属性值的增多并不会改变拟合效果。
图6
图6
算例6数值结果
核函数参数为γ = 1 500 , σ = 13 。
Fig. 6
Numerical results of example 6
Parameters in the kernel function are γ = 1 500 , σ = 13 .
目前,许多城市引入了共享单车,以提高出行的便捷性。能在合适的时间租到自行车,可减少公众的等待时间。此问题的关键是预测每小时所需的共享单车数。
数据集包含天气(温度、湿度、风速、能见度、露点、太阳辐射、降雪量、降雨量)、每小时共享单车租用数和日期等信息。共8 700组数据,包含14个属性值。随机选取6 000组作为训练集,其余2 700组作为测试集。预测结果如图7 所示,R 2 = 0.860 ,拟合效果较好。结果表明,大规模数据具有较好拟合效果。
图7
图7
算例7数值结果
核函数参数为γ = 200 , σ = 25 。
Fig. 7
Numerical results of example 7
Parameters in the kernel function are γ = 200 , σ = 25 .
数据集主要包括2014年5月至2015年5月美国King County的房屋销售价格以及房屋的基本信息。数据分为训练数据和测试数据两部分,分别保存在kc_train.csv和kc_test.csv两个文件中。其中训练数据主要包括10 000条记录,14个字段,随机选取8 000条作为训练集,其余2 000条作为测试集。预测结果如图8 所示,R 2 = 0.790 ,非常接近0.8,拟合效果良好,可用于预测房价,结果再次表明,当数据量达到10 000时拟合效果仍良好。
图8
图8
算例8数值结果
核函数参数为γ = 190 , σ = 20 。
Fig. 8
Numerical results of example 8
Parameters in the kernel function are γ = 190 , σ = 20 .
4 结 论
研究了如何用LS-SVM求解大规模矛盾方程组,并将其用于预测实际问题。在实验过程中不断修正参数值,使得训练模型更符合实际情况。通过对线性单变量和多变量问题、非线性单变量和多变量问题的研究,得到以下结论:
(1) 数据类型,如线性与非线性、一元与多元并不影响数据的拟合度,对于不同类型的数据,只要找到适当的参数值,就可以得到具有良好效果的拟合模型,进行数据预测。
(2) 从预测结果看,数据量的增多并不影响数据的拟合效果。
http://dx.doi.org/10.3785/j.issn.1008-9497.2022.04.007
参考文献
View Option
[2]
[本文引用: 1]
LI Y L , HE Y X , CHU G , et al . An error reduction method based on the least squares method for inverse computation of boundary loads of engineering structures
[J]. Chinese Journal of Computational Mechanics , 2020 , 37 (3 ): 284 -292 . DOI:10.7511/jslx20190629001
[本文引用: 1]
[3]
TELLINGHUISEN J . Least squares methods for treating problems with uncertainty in x and y
[J]. Analytical Chemistry , 2020 , 92 (16 ): 10863 -10871 . DOI:10.1021/acs.analchem.0c02178
[本文引用: 1]
[4]
张燕平 , 张铃 . 机器学习理论与算法 [M]. 北京 : 科学出版社 , 2012 : 18 -55 .
[本文引用: 1]
ZHANG Y P , ZHANG L . Machine Learning Theory and Algorithm [M]. Beijing : Science Press , 2012 : 18 -55 .
[本文引用: 1]
[5]
SHAWE-TAYLOR J , CRISTIANINI N . Kernel Methods for Pattern Analysis [M]. Cambridge : Cambridge University Press , 2005 : 47 -82 .
[本文引用: 1]
[6]
LEMARÉCHAL C , BOYD S , VANDENBERGHE L . Convex optimization
[J]. European Journal of Operational Research , 2006 , 170 (1 ): 326 -327 .
[本文引用: 1]
[7]
SUYKENS J A K , VANDEWALLE J . Least squares support vector machine classifiers
[J]. Neural Processing Letters , 1999 , 9 (3 ): 293 -300 . DOI:10. 1023/A:1018628609742
[本文引用: 2]
[8]
XU F , LIU Z P , ZHENG H B , et al . On-line modeling of ship maneuvering motion based on LS-SVM
[J]. Ship Mechanics , 2021 , 25 (6 ):752 -759 .
[本文引用: 1]
[9]
MIAO F , SHARMA A . Design and implementation of construction cost prediction model based on SVM and LSSVM in industries 4.0
[J]. International Journal of Intelligent Computing and Cybernetics , 2021 , 14 (2 ): 145 -157 . DOI:10.1108/IJICC-10-2020-0142
[本文引用: 1]
[10]
[本文引用: 1]
ZHAO Q Z , LIU Y , YAO W Q . Establishment of short-term rainfall forecast model by least square support vector machine
[J]. Journal of Geodesy and Geodynamics , 2021 , 41 (2 ): 152 -156 . DOI:10. 14075/j.jgg.2021.02.008
[本文引用: 1]
[11]
封建湖 , 车刚明 , 聂玉峰 , 等 . 数值分析原理 [M]. 北京 : 科学出版社 , 2006 .
[本文引用: 1]
FENG J H , CHE G M , NIE Y F , et al . Principles of Numerical Analysis [M]. Beijing : Science Press , 2006 .
[本文引用: 1]
[12]
徐仲 , 张凯院 , 陆全 , 等 . 矩阵论简明教程 [M]. 3版 . 北京 : 科学出版社 , 2014 .
[本文引用: 1]
XU Z , ZHANG K Y , LU Q , et al . Matrix Theory Concise Course [M]. 3rd ed . Beijing : Science Press , 2013 .
[本文引用: 1]
[13]
王萼芳 , 石生明 . 高等代数 [M]. 4版 . 北京 : 高等教育出版社 , 2013 :137 -140 .
[本文引用: 1]
WANG E F , SHI S M . Advanced Algebra [M]. 4th ed . Beijing : Higher Education Press , 2013 : 137 -140 .
[本文引用: 1]
[16]
[本文引用: 1]
RONG H N , ZHANG G X , JIN W D . Selection of kernel functions and parameters for support vector machines in system identification
[J]. Journal of System Simulation , 2006 , 18 (11 ): 3204 -3208 , 3226 . doi:10.3969/j.issn.1004-731X.2006.11.050
[本文引用: 1]
1
1998
... 在求解范围内无解(解为空集)的方程组称为该范围内的矛盾方程组.矛盾方程组在实际生活中应用广泛,通常采用最小二乘法求解,其基本思想是寻找一组解x ˜ ,使得方程组两端的偏差向量的2-范数平方最小.近年来,基于最小二乘法的新算法不断涌现,如JIANG[1 ] 系统阐述了最小二乘有限元法;李玉良等[2 ] 依据圣维南原理,提出了基于最小二乘法的复杂局部边界结构载荷误差消减算法. ...
基于最小二乘的工程结构边界载荷反求误差消减方法
1
2020
... 在求解范围内无解(解为空集)的方程组称为该范围内的矛盾方程组.矛盾方程组在实际生活中应用广泛,通常采用最小二乘法求解,其基本思想是寻找一组解x ˜ ,使得方程组两端的偏差向量的2-范数平方最小.近年来,基于最小二乘法的新算法不断涌现,如JIANG[1 ] 系统阐述了最小二乘有限元法;李玉良等[2 ] 依据圣维南原理,提出了基于最小二乘法的复杂局部边界结构载荷误差消减算法. ...
基于最小二乘的工程结构边界载荷反求误差消减方法
1
2020
... 在求解范围内无解(解为空集)的方程组称为该范围内的矛盾方程组.矛盾方程组在实际生活中应用广泛,通常采用最小二乘法求解,其基本思想是寻找一组解x ˜ ,使得方程组两端的偏差向量的2-范数平方最小.近年来,基于最小二乘法的新算法不断涌现,如JIANG[1 ] 系统阐述了最小二乘有限元法;李玉良等[2 ] 依据圣维南原理,提出了基于最小二乘法的复杂局部边界结构载荷误差消减算法. ...
Least squares methods for treating problems with uncertainty in x and y
1
2020
... 随着信息技术的发展,实际遇到的矛盾方程组规模都较大.当方程组规模过大时,用传统的最小二乘法求解,计算、存储均较复杂,且误差较大,需要寻找更好的算法.例如,将最小二乘与随机算法相结合[3 ] ,运用机器学习改进最小二乘法的计算精度[4 ] 等. ...
1
2012
... 随着信息技术的发展,实际遇到的矛盾方程组规模都较大.当方程组规模过大时,用传统的最小二乘法求解,计算、存储均较复杂,且误差较大,需要寻找更好的算法.例如,将最小二乘与随机算法相结合[3 ] ,运用机器学习改进最小二乘法的计算精度[4 ] 等. ...
1
2012
... 随着信息技术的发展,实际遇到的矛盾方程组规模都较大.当方程组规模过大时,用传统的最小二乘法求解,计算、存储均较复杂,且误差较大,需要寻找更好的算法.例如,将最小二乘与随机算法相结合[3 ] ,运用机器学习改进最小二乘法的计算精度[4 ] 等. ...
1
2005
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
Convex optimization
1
2006
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
Least squares support vector machine classifiers
2
1999
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
... 将最小二乘法运用于SVM,在优化问题的目标函数中使用2-范数,用等式约束条件代替SVM标准算法中的不等式约束条件,得到LS-SVM[7 ] .SVM与LS-SVM的区别主要表现在: ...
On-line modeling of ship maneuvering motion based on LS-SVM
1
2021
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
Design and implementation of construction cost prediction model based on SVM and LSSVM in industries 4.0
1
2021
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
利用最小二乘支持向量机的短临降雨预测模型构建
1
2021
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
利用最小二乘支持向量机的短临降雨预测模型构建
1
2021
... 机器学习是一门多领域交叉学科,以计算机为工具模拟人类的学习方式,适用于大规模数据处理,可很好地解决非线性问题.其中支持向量机(support vector machine,SVM)[5 -6 ] 因具有出色的泛化能力和较强的样本适应能力应用广泛.SUYKENS等[7 ] 从机器学习的损失函数入手提出的最小二乘支持向量机(least squares support vector machine,LS-SVM)算法,求解精度大幅提高,并不断被用于解决实际问题.例如徐锋等[8 ] 提出了基于LS-SVM积分型辨识样本结构的船舶操纵运动的在线建模.SHARMA等[9 ] 为提高工程造价预测的准确性,提出了基于LS-SVM的工程造价预测模型,该模型预测精度高,结果稳定,相对误差在7%内.赵庆志等[10 ] 应用LS-SVM实现了对未来降雨的预测,可准确预测99%的降雨事件.鲜有报道涉及基于LS-SVM算法求解具有实际背景的大规模矛盾方程组的研究.鉴于此,本文采用LS-SVM算法对大规模矛盾方程组进行数值求解,给出求解过程,将其应用于若干具体算例,并对结果进行分析和比较. ...
1
2006
... 通常,若没有任何一组解使得式(1) 准确成立,则称该方程组为矛盾方程组.希望可以找到一组数x ˜ = ( x 1 , x 2 , ⋯ , x n ) T ,使方程组两端的偏差向量( δ 1 , δ 2 , ⋯ , δ m ) T δ i = ∑ j = 1 m a i j x j - y i 的2-范数平方最小.这种以偏差平方和最小为求解标准的方法,称为最小二乘法[11 -12 ] . ...
1
2006
... 通常,若没有任何一组解使得式(1) 准确成立,则称该方程组为矛盾方程组.希望可以找到一组数x ˜ = ( x 1 , x 2 , ⋯ , x n ) T ,使方程组两端的偏差向量( δ 1 , δ 2 , ⋯ , δ m ) T δ i = ∑ j = 1 m a i j x j - y i 的2-范数平方最小.这种以偏差平方和最小为求解标准的方法,称为最小二乘法[11 -12 ] . ...
1
2013
... 通常,若没有任何一组解使得式(1) 准确成立,则称该方程组为矛盾方程组.希望可以找到一组数x ˜ = ( x 1 , x 2 , ⋯ , x n ) T ,使方程组两端的偏差向量( δ 1 , δ 2 , ⋯ , δ m ) T δ i = ∑ j = 1 m a i j x j - y i 的2-范数平方最小.这种以偏差平方和最小为求解标准的方法,称为最小二乘法[11 -12 ] . ...
1
2013
... 通常,若没有任何一组解使得式(1) 准确成立,则称该方程组为矛盾方程组.希望可以找到一组数x ˜ = ( x 1 , x 2 , ⋯ , x n ) T ,使方程组两端的偏差向量( δ 1 , δ 2 , ⋯ , δ m ) T δ i = ∑ j = 1 m a i j x j - y i 的2-范数平方最小.这种以偏差平方和最小为求解标准的方法,称为最小二乘法[11 -12 ] . ...
1
2013
... Q ( x 1 , x 2 , ⋯ , x n ) = ∑ i = 1 m δ i 2 = ∑ i = 1 m ∑ j = 1 n a i j x j - y i 2 ,一般采用多元函数求极值的方法得到对应的法方程组(正规方程组),王萼芳等[13 ] 基于内积理论对法方程组解的存在性问题进行了讨论.令 ...
1
2013
... Q ( x 1 , x 2 , ⋯ , x n ) = ∑ i = 1 m δ i 2 = ∑ i = 1 m ∑ j = 1 n a i j x j - y i 2 ,一般采用多元函数求极值的方法得到对应的法方程组(正规方程组),王萼芳等[13 ] 基于内积理论对法方程组解的存在性问题进行了讨论.令 ...
核函数方法及其在过程控制中的应用
1
2005
... 常用的核函数主要有线性核函数、多项式核函数、高斯核函数等[14 ] ,本文采用目前较常用的高斯核函数[15 ] .高斯核函数是一种径向基函数(radial basis function,RBF),是沿径向对称的标量函数,定义为空间中任一点x 与某一中心x c 之间欧氏距离的单调函数,其作用往往是局部的,即当x 远离x c 时函数值很小.高斯核函数的表达式为 ...
核函数方法及其在过程控制中的应用
1
2005
... 常用的核函数主要有线性核函数、多项式核函数、高斯核函数等[14 ] ,本文采用目前较常用的高斯核函数[15 ] .高斯核函数是一种径向基函数(radial basis function,RBF),是沿径向对称的标量函数,定义为空间中任一点x 与某一中心x c 之间欧氏距离的单调函数,其作用往往是局部的,即当x 远离x c 时函数值很小.高斯核函数的表达式为 ...
1
2003
... 常用的核函数主要有线性核函数、多项式核函数、高斯核函数等[14 ] ,本文采用目前较常用的高斯核函数[15 ] .高斯核函数是一种径向基函数(radial basis function,RBF),是沿径向对称的标量函数,定义为空间中任一点x 与某一中心x c 之间欧氏距离的单调函数,其作用往往是局部的,即当x 远离x c 时函数值很小.高斯核函数的表达式为 ...
系统辨识中支持向量机核函数及其参数的研究
1
2006
... 其中,K 为核,x c 为核函数中心,σ 为函数的宽度参数,用以控制函数的径向作用范围.高斯核函数的正则化项[16 ] 为 ...
系统辨识中支持向量机核函数及其参数的研究
1
2006
... 其中,K 为核,x c 为核函数中心,σ 为函数的宽度参数,用以控制函数的径向作用范围.高斯核函数的正则化项[16 ] 为 ...