Deep Emotion Recognition through Upper Body Movements and Facial Expression
Author
Viana Nunes, Ana Rita
Term
4. term
Publication year
2019
Pages
63
Abstract
Automatisk genkendelse af menneskelige følelser kan hjælpe maskiner med at interagere mere naturligt med mennesker. Denne afhandling undersøger to måder, som følelser ofte udtrykkes på: ansigtsudtryk og bevægelser i overkroppen. Sådanne nonverbale signaler formidler ofte følelser stærkere end ord. For at genkende følelser fra begge kilder trænes konvolutionelle neurale netværk (CNN'er), en type maskinlæring, der lærer mønstre i billeder og bevægelser, på standardiserede benchmark-datasæt, hvor deltagere viser forskellige følelser. Resultaterne fra de to kilder kombineres derefter for at opbygge et bimodalt system til følelsesgenkendelse. Målet er, at robotter og andre maskiner kan reagere hensigtsmæssigt på brugernes følelser og dermed forbedre brugeroplevelsen.
Automatically recognizing human emotions can help machines interact with people in a more natural way. This thesis examines two common ways people show feelings: facial expressions and upper-body movements. These nonverbal signals often communicate emotions more strongly than words. To detect emotions from both sources, the work trains Convolutional Neural Networks (CNNs), a type of machine learning that learns patterns in images and motion, using standardized benchmark datasets in which participants display different emotions. The outputs from the two sources are then combined to build a bimodal emotion recognition system. The goal is to enable robots and other machines to respond appropriately to users’ feelings and improve the overall user experience.
[This abstract was generated with the help of AI]
Documents
