Tese

Explicações visuais aplicadas a redes neurais convolucionais unidimensionais com ênfase no reconhecimento humano de atividades

O Reconhecimento Humano de Atividades (HAR) é uma área de crescente importância, especialmente com a popularização dos dispositivos vestíveis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas são impulsionadas por dado...

ver descrição completa

Autor principal: Aquino, Gustavo de Aquino e
Outros Autores: http://lattes.cnpq.br/3050968587529962, https://orcid.org/0000-0003-3299-3337
Grau: Tese
Idioma: por
Publicado em: Universidade Federal do Amazonas 2024
Assuntos:
Acesso em linha: https://tede.ufam.edu.br/handle/tede/10510
Resumo:
O Reconhecimento Humano de Atividades (HAR) é uma área de crescente importância, especialmente com a popularização dos dispositivos vestíveis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas são impulsionadas por dados e têm a capacidade de aprender padrões complexos nos sinais que podem ser usados para classificar atividades humanas. No entanto, embora 1D CNNs possam alcançar resultados numéricos expressivos, compreender e explicar a tomada de decisão desses modelos ainda é um desafio. Este trabalho propõe duas abordagens inovadoras para gerar explicações visuais em 1D CNNs aplicadas ao HAR, a primeira utilizando Gradient-weighted Class Activation Mapping (grad-CAM) e a segunda com t-Distributed Stochastic Neighbor Embeddings (t-SNE). Nosso objetivo é, por meio das visualizações, entender e explicar os padrões complexos aprendidos pelos modelos 1D CNNs durante o processo de treinamento, propondo visualizações que possibilitam o entendimento do processo de tomada de decisão dos modelos. As explicações propostas permitem a identificação de vieses nos modelos e nos conjuntos de dados, a análise de como a abordagem de validação impacta o aprendizado do modelo e também a escolha de um melhor modelo, observando não apenas resultados numéricos, mas também qualitativos. Em geral, com base nos experimentos propostos neste trabalho, a combinação de técnicas de inteligência artificial explicável com aprendizado profundo tem potencial para proporcionar uma visão holística sobre a capacidade dos modelos treinados, tornando possível criar explicações e formular hipóteses sobre a tomada de decisão dos modelos.