/img alt="Imagem da capa" class="recordcover" src="""/>
Dissertação
Um método de regularização proximal inexato para otimização irrestrita
Neste trabalho, estudamos um algoritmo regularizado para resolver problemas de otimização sem restrições quando a função objetivo é duas vezes diferenciável. O algoritmo foi proposto em [1] e, basicamente é um método Newtoniano apropriado para resolver problemas quando a matriz Hessiana é singular e...
Autor principal: | Carvalho, Claudeilsio do Nascimento |
---|---|
Outros Autores: | http://lattes.cnpq.br/5085560293588785 |
Grau: | Dissertação |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2019
|
Assuntos: | |
Acesso em linha: |
https://tede.ufam.edu.br/handle/tede/6913 |
Resumo: |
---|
Neste trabalho, estudamos um algoritmo regularizado para resolver problemas de otimização sem restrições quando a função objetivo é duas vezes diferenciável. O algoritmo foi proposto em [1] e, basicamente é um método Newtoniano apropriado para resolver problemas quando a matriz Hessiana é singular em uma solução ótima local. Este algoritmo é constituído por dois algoritmos os quais nomeamos Algoritmo 1 e Algoritmo 2 e estão ligados diretamente com o algoritmo de Ponto Proximal. Apresentamos uma prova detalhada da convergência global sob hipóteses de que f é duas vezes diferenciável e limitada inferiormente. Também destacamos a convergência local do algoritmo com taxa super-linear com uma condição de margem de erro local no gradiente de f. Por fim, elaboramos exemplos que permitem vislumbrar o funcionamento do algoritmo. |