Comparação numérica entre os métodos do gradiente ponderado com atraso e resíduos conjugados

Autores

  • Elivandro O. Grippa Universidade Estadual de Campinas (UNICAMP)
  • Roberto Andreani Universidade Estadual de Campinas (UNICAMP)
  • Leonardo D. Secchin Universidade Federal do Espírito Santo (UFES)

Palavras-chave:

Gradiente Ponderado com Atraso, Resíduos Conjugados, Otimização Convexa, Métodos Iterativos

Resumo

Neste trabalho, estamos interessados em resolver o seguinte problema de otimização convexa: min x∈Rn f(x) = 1/2 xTAx− bTx, onde A ∈ Rn×n é uma matriz simétrica e definida positiva e b ∈ Rn. Sabemos que resolver tal problema corresponde a encontrar a solução do sistema linear Ax = b. Ao longo dos anos, diversos métodos foram desenvolvidos, entre eles alguns diretos; i.e., métodos que nos fornecem a solução exata (a menos de erros de arredondamento) em um certo número fixo de operações, e os métodos iterativos os quais focamos nesse trabalho. Os métodos iterativos consistem em gerar uma sequência que aproxima a solução. Quando há muitas variáveis, aplicar métodos diretos pode ser inviável dado que tais métodos demandam memória considerável e têm custo computacional significativo. Em contrapartida, métodos iterativos são menos custosos, mesmo que a solução encontrada não seja a exata, mas sim uma aproximação seguindo alguma medida viável. Talvez o método iterativo mais famoso, e muito utilizado na prática, é o de Gradientes Conjugados (GC) devido a sua robustez e convergência finita. Em 2019, Leon propôs o chamado Método do Gradiente ponderado com atraso (do inglês, DWGM), que se mostrou superior ao GC em testes computacionais no que diz respeito ao número de iterações e tempo computacional, ainda que tenha um custo por iteração ligeiramente maior. Outras análises foram realizadas considerando essa competitividade, como, por exemplo, o estudo das propriedades das sequências geradas pelo DWGM, extensão para funções fortemente convexas e uma generalização que acomoda toda uma família de métodos, desde o GC até o DWGM. Outro método da mesma classe do GC (i.e., baseado em direções conjugadas) é o de Resíduos Conjugados (RC), menos discutido na literatura, mas com bons resultados teóricos e desempenho similar ao GC.

Downloads

Não há dados estatísticos.

Referências

R. Andreani, H. F. Leon, M. Raydan e L. D. Secchin. “An extended delayed weighted gradient algorithm for solving strongly convex optimization problems”. Em: Journal of Computational and Applied Mathematics 416 (2022), pp. 114525-1–19. doi: 10.1016/j.cam.2022.114525.

R. Andreani e M. Raydan. “Properties of the delayed weighted gradient method”. Em: Computational Optimization and Applications 78 (2020), pp. 167–180. doi: 10.1007/s10589-020-00232-9.

M. R. Hestenes e E. Stiefel. “Methods of conjugate gradients for solving linear systems”. Em: Journal of Research of the National Bureau of Standards 49 (1952), pp. 409–436. doi: 10.6028/jres.049.044.

H. F. Leon. “A delayed weighted gradient method for strictly convex quadratic minimization”. Em: Computational Optimization and Applications 74 (2019), pp. 729–746. doi: 10.1007/s10589-019-00125-6.

H. F. Leon, R. Andreani e M. Raydan. “A family of optimal weighted conjugate-gradient-type methods for strictly convex quadratic minimization”. Em: Numerical Algorithms 90 (2021), pp. 1225–1252. doi: 10.1007/s11075-021-01228-0.

D. G. Luenberger. “The conjugate residual method for constrained minimization problems”. Em: SIAM Journal on Numerical Analysis 7 (1970), pp. 390–398. doi: 10.1137/0707032.

D. G. Luenberger e Y. Ye. Linear and Nonlinear Programming. 5ª ed. Califórnia: Springer Cham, 2021. isbn: 978-3-030-85450-8.

Y. Saad. Iterative Methods for Sparse Linear Systems. 2ª ed. Filadélfia: Society for Industrial e Applied Mathematics, 2003. isbn: 978-0-89871-534-7.

Downloads

Publicado

2025-01-20

Edição

Seção

Resumos