首页 理论教育 纯随机LS-SVR-DS算法的优化探究

纯随机LS-SVR-DS算法的优化探究

时间:2023-05-27 理论教育 版权反馈
【摘要】:考虑公式中的LS-SVR问题。目标函数G是关于σ和γ的隐函数,但函数形式不可知。然而,其函数值很容易计算得到。这启发我们在LS-SVR中引入直接搜索算法。为说明寻优过程,我们给出如下算法:Step 1 选择搜索初始基点B 0=,令k=1。Step 3 根据公式计算G和G。Step 5 若G≤ε或k≥N,迭代停止;否则,k=k+1,返回Step 2。此参数下的LS-SVR模型训练风险最小,能够最大限度地描述原数据信息。

纯随机LS-SVR-DS算法的优化探究

考虑公式(4.26)中的LS-SVR问题。为了强调参数γ和σ的重要程度,我们将其改写为以下形式

我们想得到最优参数值,这里所指的最优是指使均方误差最小化,即

其中ασ(,γ),bσ(,γ)由公式(4.25)给出。

目标函数G是关于σ和γ的隐函数,但函数形式不可知。然而,其函数值很容易计算得到。这启发我们在LS-SVR中引入直接搜索算法。为说明寻优过程,我们给出如下算法:

Step 1 选择搜索初始基点B 0=(σ00),令k=1。

Step 2 考虑B 1=(σ0+λσ0+λγ)作为备选点,其中λσ和λγ是由(0,1)正态分布随机产生的。(www.xing528.com)

Step 3 根据公式(4.30)计算G(σ00)和G(σ0+λσ0+λγ)。

Step 4 如果G(σ0+λσ0+λγ)≤G(σ00),则令σ0=σ0+λσ0=γ0+λγ;否则σ0=σ00=γ0

Step 5 若G(σ00)≤ε或k≥N,迭代停止;否则,k=k+1,返回Step 2。

当预测精度达到要求或迭代次数达到预先设定的N时,迭代终止,得到的(σ00)即为最优参数值。此参数下的LS-SVR模型训练风险最小,能够最大限度地描述原数据信息。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈