/img alt="Imagem da capa" class="recordcover" src="""/>
Dissertação
Classificação de emoções humanas utilizando pontos de referência da face e redes neurais profundas
As expressões faciais humanas desempenham um papel fundamental na comunicação não-verbal e na transmissão de emoções. Conceitualmente, as expressões faciais podem ser deduzidas a partir da disposição dos músculos faciais. Sendo uma avaliação subjetiva, a construção de uma base de dados para o rec...
Autor principal: | Colares, Willian Guerreiro |
---|---|
Outros Autores: | http://lattes.cnpq.br/4746536970577554, https://orcid.org/0000-0003-0960-2668 |
Grau: | Dissertação |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2024
|
Assuntos: | |
Acesso em linha: |
https://tede.ufam.edu.br/handle/tede/10297 |
Resumo: |
---|
As expressões faciais humanas desempenham um papel fundamental na comunicação
não-verbal e na transmissão de emoções. Conceitualmente, as expressões faciais podem ser
deduzidas a partir da disposição dos músculos faciais. Sendo uma avaliação subjetiva, a
construção de uma base de dados para o reconhecimento de expressões faciais torna-se um
desafio devido ao elevado risco de enviesamento decorrente de dados desequilibrados ou
imprecisos. Por outro lado, os avanços nas técnicas de processamento de imagem e de
aprendizagem profunda têm aumentado a precisão e a eficácia dos algoritmos de
reconhecimento de expressões faciais. Neste trabalho, com o objetivo de melhorar o
reconhecimento automático de expressões faciais, apresentamos a fusão de duas arquiteturas
de redes neurais. A primeira compreende uma rede neural convolucional unidimensional
(1D), com entrada caracterizada por pontos de referência da face, e uma segunda, uma rede
neural convolucional baseada no backbone DenseNet, com a própria imagem do rosto como
entrada. O otimizador ADAM foi utilizado durante o treino desta rede. Foi utilizada a base de
dados AffectNet. O melhor resultado obtido foi uma precisão de 60,40% no subconjunto de
teste, para a modalidade de 7 classes. Este resultado é comparável aos melhores resultados
obtidos no conjunto de dados AffectNet. |