/img alt="Imagem da capa" class="recordcover" src="""/>
Dissertação
Classifica??o de emo??es humanas utilizando pontos de refer?ncia da face e redes neurais profundas
As express?es faciais humanas desempenham um papel fundamental na comunica??o n?o-verbal e na transmiss?o de emo??es. Conceitualmente, as express?es faciais podem ser deduzidas a partir da disposi??o dos m?sculos faciais. Sendo uma avalia??o subjetiva, a constru??o de uma base de dados para o rec...
Autor principal: | Colares, Willian Guerreiro |
---|---|
Outros Autores: | http://lattes.cnpq.br/4746536970577554, https://orcid.org/0000-0003-0960-2668 |
Grau: | Dissertação |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2024
|
Assuntos: | |
Acesso em linha: |
https://tede.ufam.edu.br/handle/tede/10297 |
Resumo: |
---|
As express?es faciais humanas desempenham um papel fundamental na comunica??o
n?o-verbal e na transmiss?o de emo??es. Conceitualmente, as express?es faciais podem ser
deduzidas a partir da disposi??o dos m?sculos faciais. Sendo uma avalia??o subjetiva, a
constru??o de uma base de dados para o reconhecimento de express?es faciais torna-se um
desafio devido ao elevado risco de enviesamento decorrente de dados desequilibrados ou
imprecisos. Por outro lado, os avan?os nas t?cnicas de processamento de imagem e de
aprendizagem profunda t?m aumentado a precis?o e a efic?cia dos algoritmos de
reconhecimento de express?es faciais. Neste trabalho, com o objetivo de melhorar o
reconhecimento autom?tico de express?es faciais, apresentamos a fus?o de duas arquiteturas
de redes neurais. A primeira compreende uma rede neural convolucional unidimensional
(1D), com entrada caracterizada por pontos de refer?ncia da face, e uma segunda, uma rede
neural convolucional baseada no backbone DenseNet, com a pr?pria imagem do rosto como
entrada. O otimizador ADAM foi utilizado durante o treino desta rede. Foi utilizada a base de
dados AffectNet. O melhor resultado obtido foi uma precis?o de 60,40% no subconjunto de
teste, para a modalidade de 7 classes. Este resultado ? compar?vel aos melhores resultados
obtidos no conjunto de dados AffectNet. |