/img alt="Imagem da capa" class="recordcover" src="""/>
Dissertação
Abordagens adversariais para explicação de imagens em redes neurais profundas
O uso de modelos de previsão cada vez mais complexos tem se tornado comum em uma variedade de aplicações. Em muitas delas, a opacidade destes modelos representa um desafio na detecção de vícios ou injustiças relacionados ao processo decisório, o que pode contribuir para as percepção de desconfiança...
Autor principal: | Junior, Antonio Jose Sobrinho |
---|---|
Outros Autores: | http://lattes.cnpq.br/6334165648715375 |
Grau: | Dissertação |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2022
|
Assuntos: | |
Acesso em linha: |
https://tede.ufam.edu.br/handle/tede/8877 |
Resumo: |
---|
O uso de modelos de previsão cada vez mais complexos tem se tornado comum em uma variedade de aplicações. Em muitas delas, a opacidade destes modelos representa um desafio na detecção de vícios ou injustiças relacionados ao processo decisório, o que pode contribuir para as percepção de desconfiança e discordância quanto aos fatores determinantes para os resultados, impactando o entendimento de seus usuários, principalmente quando estes modelos são usados como base para decisões consideradas críticas ou sensíveis. Tal desafio motiva o desenvolvimento de estratégias de explicação globais (por que o modelo toma certas decisões?) e locais (por que o modelo toma certas decisões para uma certa instância?). Nesta última, devido à complexidade da superfície de decisão obtida por modelos complexos, têm sido comum adotar análise de vizinhança com amostras sinteticamente geradas para (a) buscar a superfície de separação mais próxima, (b) isolar as características e (c) fornecer explicações que sustentem a amostra sintética de interesse (alvo de explicação) nesta região do plano. Neste trabalho propomos abordagens que combinam a utilização dos conceitos de modelos adversariais com o objetivo de explicação de instâncias. Partimos da suposição de que uma instância adversarial é um bom ponto de partida para a análise do menor esforço necessário para uma transição entre classes. Com base nisso, propomos meios de melhorar esta descrição inicial para que ela seja vista como mais apropriada pelo usuário para a qual a explicação é dada. Ao fim, a explicação consiste de uma descrição da sensibilidade dos atributos para a decisão tomada por um modelo complexo. As explicações fornecidas por nossos métodos para justificar classes incorretamente fornecidas, por uma CNN, para digitos manuscritos da coleção MNIST, foram avaliadas por usuários em testes cegos. Estes as consideraram significativamente melhores, em 68 a 74% dos casos, que as fornecidas por outros dois baselines da literatura, um dos quais também baseado em uma estratégia adversarial. |