Uma Introdução ao Método do Gradiente em Otimização Contínua
Resumo
Nesta pesquisa de Iniciação Científica foi estudado o método do gradiente aplicado à minimização de funções continuamente diferenciáveis, com foco na sua convergência e eficácia em problemas de programação quadrática convexa. Além da análise teórica, foram realizadas implementações e experimentos que verificaram as propriedades de convergência do algoritmo. O desenvolvimento da pesquisa abrangeu em detalhes o processo iterativo do método, exemplos práticos em que o algoritmo foi aplicado, e a velocidade de convergência do método. O estudo evidenciou que, sob condições específicas, o método de gradiente é eficaz para encontrar mínimos de funções convexas, com uma taxa de convergência dependente de propriedades da função a ser otimizada. As fontes principais da literatura que forneceram uma base teórica sólida e clássica sobre o tema foram: Convex Optimization [1], Elementos de Programação Não-Linear [2], Numerical Optimization [3], Aspectos Teóricos e Computacionais [4] e Otimização: Condições de Otimalidade, Elementos de Analise Convexa e Dualidade [5].
Downloads
Referências
L. Boyd S. ; Vanderberghe. Convex Optimization. United States of America by Cambridge University Press, 2004. isbn: 0521833787.
A. Friedlander. Elementos de Programação Não-Linear. Campinas: UNICAMP, 1994. isbn: 9788526803046.
S. J. Noceda J.; Wright. Numerical Optimization. New York: Springer, 2006. isbn: 9780387227429.
E. W. Ribeiro A. A.; Karas. Otimização Contínua: Aspectos Teóricos e Computacionais. São Paul: LTC, 2013. isbn: 9788522115013.
Solodov M.; Izmailov.Otimização: Condições de Otimalidade, Elementos de Analise Convexa e Dualidade. Rio de Janeiro: Associação Instituto Nacional de Matemática Pura e Aplicada -IMPA, 2014. isbn: 9788524402388.