Métodos de primeira ordem acelerados e buscas adaptativas para minimização suave
Resumo
Neste trabalho foi considerado o problema de minimizar f (x), s.a x ∈ Rn , em que f: Rn → R é continuamente diferenciável (f ∈ C 1 ) e convexa. Adicionalmente, foram consideradas as hipóteses de f ser L-fortemente suave e μ-fortemente convexa. Um tratamento teórico desse problema com essas hipóteses pode ser visto, por exemplo, em [3, Capítulo 3] ou [6, Capítulo 2]. [...]
Downloads
Referências
E. D. Dolan e J. J. Moré. “Benchmarking optimization software with performance profiles”. Em: Mathematical Programming 91.2 (2002), pp. 201–213.
C. C. Gonzaga e E. W. Karas. “Fine tuning Nesterov’s steepest descent algorithm for differentiable convex programming”. Em: Mathematical Programming 138.1 (2013), pp. 141– 166.
A. Izmailov e M. Solodov. Otimização, Volume 1: Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. 3ª ed. Rio de Janeiro: IMPA, 2014.
A. Izmailov e M. Solodov. Otimização, Volume 2: Métodos Computacionais. 3ª ed. Rio de Janeiro: IMPA, 2018.
Y. Nesterov. Gradient methods for minimizing composite objective function. Discussion paper 76. Bélgica: CORE, UCL, 2007.
Y. Nesterov. Introductory Lectures on Convex Optimization: A Basic Course. Vol. 87. Applied Optimization. New York: Springer Science & Business Media, 2003.
B. O’Donoghue e E. Candès. “Adaptive restart for accelerated gradient schemes”. Em: Foundations of Computational Mathematics 15.3 (2015), pp. 715–732.
B. T. Polyak. “Some methods of speeding up the convergence of iteration methods”. Em: USSR Computational Mathematics and Mathematical Physics 4.5 (1964), pp. 1–17.