Um estudo sobre métodos de máxima descida e acelerações
Resumo
Os métodos de direções de descida são métodos iterativos para resolução de problemas de otimização irrestrita: minimizar f (x), sujeito a x ∈ Rn , em que f : Rn → R é uma função continuamente diferenciável e com gradiente Lipschitz, de constante L > 0. [...]
Downloads
Não há dados estatísticos.
Referências
Y. Nesterov. Introductory lectures on convex optimization: A basic course. Vol. 87. Springer Science & Business Media, 2003.
J. Barzilai e J. M. Borwein. “Two-point step size gradient methods”. Em: IMA Journal of Numerical Analysis 8.1 (1988), pp. 141–148.
G. N. Grapiglia e E. W. Sachs. “On the worst-case evaluation complexity of non-monotone line search algorithms”. Em: Computational Optimization and Applications 68.3 (2017), pp. 555–577.