【摘要】:考虑公式中的LS-SVR问题。目标函数G是关于σ和γ的隐函数,但函数形式不可知。然而,其函数值很容易计算得到。这启发我们在LS-SVR中引入直接搜索算法。为说明寻优过程,我们给出如下算法:Step 1 选择搜索初始基点B 0=,令k=1。Step 3 根据公式计算G和G。Step 5 若G≤ε或k≥N,迭代停止;否则,k=k+1,返回Step 2。此参数下的LS-SVR模型训练风险最小,能够最大限度地描述原数据信息。
考虑公式(4.26)中的LS-SVR问题。为了强调参数γ和σ的重要程度,我们将其改写为以下形式
我们想得到最优参数值,这里所指的最优是指使均方误差最小化,即
其中ασ(,γ),bσ(,γ)由公式(4.25)给出。
目标函数G是关于σ和γ的隐函数,但函数形式不可知。然而,其函数值很容易计算得到。这启发我们在LS-SVR中引入直接搜索算法。为说明寻优过程,我们给出如下算法:
Step 1 选择搜索初始基点B 0=(σ0,γ0),令k=1。
Step 2 考虑B 1=(σ0+λσ,γ0+λγ)作为备选点,其中λσ和λγ是由(0,1)正态分布随机产生的。(www.xing528.com)
Step 3 根据公式(4.30)计算G(σ0,γ0)和G(σ0+λσ,γ0+λγ)。
Step 4 如果G(σ0+λσ,γ0+λγ)≤G(σ0,γ0),则令σ0=σ0+λσ,γ0=γ0+λγ;否则σ0=σ0,γ0=γ0。
Step 5 若G(σ0,γ0)≤ε或k≥N,迭代停止;否则,k=k+1,返回Step 2。
当预测精度达到要求或迭代次数达到预先设定的N时,迭代终止,得到的(σ0,γ0)即为最优参数值。此参数下的LS-SVR模型训练风险最小,能够最大限度地描述原数据信息。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。