Lokalus konvergavimas


Gradientinis metodas konverguoja,
kai $f(x)$ diferencijuojama ir iškila.
Newton'o ir Kvazi-Newton'o metodai
konverguoja, kai $f(x)$
du kartus diferencijuojama ir iškila.
Gradientinis metodas konverguoja letai

\begin{eqnarray}\vert\vert x^n-x^*\vert\vert \rightarrow\ 0.
\end{eqnarray}


Newton'o ir kvazi-Newton'o metodai
konverguoja greitai

\begin{eqnarray}\frac {\vert\vert x^n-x^*\vert\vert} {\vert\vert x^{n-1}-x^*\vert\vert}\rightarrow\ 0,
\end{eqnarray}


kur $x^*$ optimumas.
Newton'o metodo trukumas-
reikia surasti atvitkštini Hessiana $H_n^{-1}$. Todel, Newton'o metodas nedirba kai $\det H_n=0$.
Šio trukumo neturi kvazi-Newton'o metodas.



jonas mockus 2004-03-01