/img alt="Imagem da capa" class="recordcover" src="""/>
Tese
Explicações visuais aplicadas a redes neurais convolucionais unidimensionais com ênfase no reconhecimento humano de atividades
O Reconhecimento Humano de Atividades (HAR) é uma área de crescente importância, especialmente com a popularização dos dispositivos vestíveis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas são impulsionadas por dado...
Autor principal: | Aquino, Gustavo de Aquino e |
---|---|
Outros Autores: | http://lattes.cnpq.br/3050968587529962, https://orcid.org/0000-0003-3299-3337 |
Grau: | Tese |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2024
|
Assuntos: | |
Acesso em linha: |
https://tede.ufam.edu.br/handle/tede/10510 |
Resumo: |
---|
O Reconhecimento Humano de Atividades (HAR) é uma área de crescente importância, especialmente com a popularização dos dispositivos vestíveis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas são impulsionadas por dados e têm a capacidade de aprender padrões complexos nos sinais que podem ser usados para classificar atividades humanas. No entanto, embora 1D CNNs possam alcançar resultados numéricos expressivos, compreender e explicar a tomada de decisão desses modelos ainda é um desafio. Este trabalho propõe duas abordagens inovadoras para gerar explicações visuais em 1D CNNs aplicadas ao HAR, a primeira utilizando Gradient-weighted Class Activation Mapping (grad-CAM) e a segunda com t-Distributed Stochastic Neighbor Embeddings (t-SNE). Nosso objetivo é, por meio das visualizações, entender e explicar os padrões complexos aprendidos pelos modelos 1D CNNs durante o processo de treinamento, propondo visualizações que possibilitam o entendimento do processo de tomada de decisão dos modelos. As explicações propostas permitem a identificação de vieses nos modelos e nos conjuntos de dados, a análise de como a abordagem de validação impacta o aprendizado do modelo e também a escolha de um melhor modelo, observando não apenas resultados numéricos, mas também qualitativos. Em geral, com base nos experimentos propostos neste trabalho, a combinação de técnicas de inteligência artificial explicável com aprendizado profundo tem potencial para proporcionar uma visão holística sobre a capacidade dos modelos treinados, tornando possível criar explicações e formular hipóteses sobre a tomada de decisão dos modelos. |