Métodos de primeira ordem acelerados e buscas adaptativas para minimização suave

Autores

  • Gabriel Grillo
  • Sandra Augusta Santos

Resumo

Neste trabalho foi considerado o problema de minimizar f (x), s.a x ∈ Rn , em que f: Rn → R é continuamente diferenciável (f ∈ C 1 ) e convexa. Adicionalmente, foram consideradas as hipóteses de f ser L-fortemente suave e μ-fortemente convexa. Um tratamento teórico desse problema com essas hipóteses pode ser visto, por exemplo, em [3, Capítulo 3] ou [6, Capítulo 2]. [...]

Downloads

Não há dados estatísticos.

Biografia do Autor

Gabriel Grillo

IMECC/Unicamp, Campinas, SP

Sandra Augusta Santos

IMECC/Unicamp, Campinas, SP

Referências

E. D. Dolan e J. J. Moré. “Benchmarking optimization software with performance profiles”. Em: Mathematical Programming 91.2 (2002), pp. 201–213.

C. C. Gonzaga e E. W. Karas. “Fine tuning Nesterov’s steepest descent algorithm for differentiable convex programming”. Em: Mathematical Programming 138.1 (2013), pp. 141– 166.

A. Izmailov e M. Solodov. Otimização, Volume 1: Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. 3ª ed. Rio de Janeiro: IMPA, 2014.

A. Izmailov e M. Solodov. Otimização, Volume 2: Métodos Computacionais. 3ª ed. Rio de Janeiro: IMPA, 2018.

Y. Nesterov. Gradient methods for minimizing composite objective function. Discussion paper 76. Bélgica: CORE, UCL, 2007.

Y. Nesterov. Introductory Lectures on Convex Optimization: A Basic Course. Vol. 87. Applied Optimization. New York: Springer Science & Business Media, 2003.

B. O’Donoghue e E. Candès. “Adaptive restart for accelerated gradient schemes”. Em: Foundations of Computational Mathematics 15.3 (2015), pp. 715–732.

B. T. Polyak. “Some methods of speeding up the convergence of iteration methods”. Em: USSR Computational Mathematics and Mathematical Physics 4.5 (1964), pp. 1–17.

Downloads

Publicado

2022-12-08

Edição

Seção

Resumos