Dissertação

Um método de regularização proximal inexato para otimização irrestrita

Neste trabalho, estudamos um algoritmo regularizado para resolver problemas de otimização sem restrições quando a função objetivo é duas vezes diferenciável. O algoritmo foi proposto em [1] e, basicamente é um método Newtoniano apropriado para resolver problemas quando a matriz Hessiana é singular e...

ver descrição completa

Autor principal: Carvalho, Claudeilsio do Nascimento
Outros Autores: http://lattes.cnpq.br/5085560293588785
Grau: Dissertação
Idioma: por
Publicado em: Universidade Federal do Amazonas 2019
Assuntos:
Acesso em linha: https://tede.ufam.edu.br/handle/tede/6913
Resumo:
Neste trabalho, estudamos um algoritmo regularizado para resolver problemas de otimização sem restrições quando a função objetivo é duas vezes diferenciável. O algoritmo foi proposto em [1] e, basicamente é um método Newtoniano apropriado para resolver problemas quando a matriz Hessiana é singular em uma solução ótima local. Este algoritmo é constituído por dois algoritmos os quais nomeamos Algoritmo 1 e Algoritmo 2 e estão ligados diretamente com o algoritmo de Ponto Proximal. Apresentamos uma prova detalhada da convergência global sob hipóteses de que f é duas vezes diferenciável e limitada inferiormente. Também destacamos a convergência local do algoritmo com taxa super-linear com uma condição de margem de erro local no gradiente de f. Por fim, elaboramos exemplos que permitem vislumbrar o funcionamento do algoritmo.