教材: 【機器學習2021】類神經網路訓練不起來怎麼辦 (一): 局部最小值 (local minima) 與鞍點 (saddle point)
【機器學習2021】類神經網路訓練不起來怎麼辦 (一): 局部最小值 (local minima) 與鞍點 (saddle point)
怎麼發覺Optimization做得不好?
<aside> 📒 以上兩點,就是gradient對loss的微分$\cong$0,他已經找不到哪邊的斜率較低了 →即critical point local minima, saddle point(鞍點)是標準例子
</aside>
$$ L(\theta)\approx L(\theta')+ (\theta-\theta')^Tg+\frac{1}{2}(\theta-\theta')^T H(\theta-\theta') $$
<aside> 📢 懶人包: $H$矩陣(Hessian)的所有eigen value(特徵值)計算出來 若為正→ Local minima 若為負→ Local maxima 若時而正時而負 → Saddle point
</aside>
【機器學習2021】類神經網路訓練不起來怎麼辦 (一): 局部最小值 (local minima) 與鞍點 (saddle point)