Dissertação

Classifica??o de emo??es humanas utilizando pontos de refer?ncia da face e redes neurais profundas

As express?es faciais humanas desempenham um papel fundamental na comunica??o n?o-verbal e na transmiss?o de emo??es. Conceitualmente, as express?es faciais podem ser deduzidas a partir da disposi??o dos m?sculos faciais. Sendo uma avalia??o subjetiva, a constru??o de uma base de dados para o rec...

ver descrição completa

Autor principal: Colares, Willian Guerreiro
Outros Autores: http://lattes.cnpq.br/4746536970577554, https://orcid.org/0000-0003-0960-2668
Grau: Dissertação
Idioma: por
Publicado em: Universidade Federal do Amazonas 2024
Assuntos:
.
.
.
Acesso em linha: https://tede.ufam.edu.br/handle/tede/10297
Resumo:
As express?es faciais humanas desempenham um papel fundamental na comunica??o n?o-verbal e na transmiss?o de emo??es. Conceitualmente, as express?es faciais podem ser deduzidas a partir da disposi??o dos m?sculos faciais. Sendo uma avalia??o subjetiva, a constru??o de uma base de dados para o reconhecimento de express?es faciais torna-se um desafio devido ao elevado risco de enviesamento decorrente de dados desequilibrados ou imprecisos. Por outro lado, os avan?os nas t?cnicas de processamento de imagem e de aprendizagem profunda t?m aumentado a precis?o e a efic?cia dos algoritmos de reconhecimento de express?es faciais. Neste trabalho, com o objetivo de melhorar o reconhecimento autom?tico de express?es faciais, apresentamos a fus?o de duas arquiteturas de redes neurais. A primeira compreende uma rede neural convolucional unidimensional (1D), com entrada caracterizada por pontos de refer?ncia da face, e uma segunda, uma rede neural convolucional baseada no backbone DenseNet, com a pr?pria imagem do rosto como entrada. O otimizador ADAM foi utilizado durante o treino desta rede. Foi utilizada a base de dados AffectNet. O melhor resultado obtido foi uma precis?o de 60,40% no subconjunto de teste, para a modalidade de 7 classes. Este resultado ? compar?vel aos melhores resultados obtidos no conjunto de dados AffectNet.