非线性优化

方法 思路 缺点
最速下降 沿着目标函数的负梯度方向进行搜索 目标函数需连续可导
牛顿法 使用目标函数的二阶导数信息逼近最优解 H矩阵可逆&求逆
拟牛顿法 近似目标的H矩阵避免了求解逆矩阵的复杂
高斯牛顿法 改用
L-M法 拟牛顿法的扩展,适用于参数拟合问题

方程建立

minxF(x)=12||f(x)||2

牛顿法

推导

F(xk+Δxk)=F(x+k)+J(xk)TΔxk+12ΔxkTH(xk)Δxk

其中J为雅克比矩阵(一阶导数), H为海森矩阵(二阶导数),有

{: Δx=J(xk): Δx=argminΔx(F(x)+J(x)TΔx+12ΔxTHΔx)

对右侧求导并令其等于0,有$$J+H\Delta x=0\Rightarrow H\Delta x=-J$$

例题

y=f(x)axbΔxk=f(xk)axkbykf(xk)a

高斯牛顿法

推导

f(x+Δx)=f(x)+J(x)TΔx

有线形最小二乘问题:

Δx=argminΔx12||f(x)+J(x)TΔx||2

右侧展开后求导可以得到

δ...δΔx=J(x)f(x)+J(x)JT(x)Δx=0J(x)JT(x)Δx=J(x)f(x)H(x)Δx=g(x)

例题

有曲线y=exp(ax2+bx+c)+w和一组拟合点[[x1,y1],...,[xn,ynx1,y1],...,[xn,yn]]
有$$\underset{a,b,c}{min}\frac12\sum^N_{i=1}\left|\left|y_i-exp(ax_i^2+bx_i+c)\right|\right|^2=\underset{a,b,c}{min}\frac12\sum^N_{i=1}\left|\left|e_i\right|\right|^2$$
对a,b,c求偏导数可以得到$$J_i=[\frac{\delta e_i}{\delta a},\frac{\delta e_i}{\delta b},\frac{\delta e_i}{\delta c}]=[-x_i^2exp(ax_i^2+bx_i+c),-x_iexp(ax_i^2+bx_i+c),-exp(ax_i^2+bx_i+c)]$$

优化算法-高斯牛顿法