![스크린샷 2022-08-04 오후 11.50.32.png](https://s3-us-west-2.amazonaws.com/secure.notion-static.com/01264b3f-30dd-4703-8e3a-0d4565fe7271/%E1%84%89%E1%85%B3%E1%84%8F%E1%85%B3%E1%84%85%E1%85%B5%E1%86%AB%E1%84%89%E1%85%A3%E1%86%BA_2022-08-04_%E1%84%8B%E1%85%A9%E1%84%92%E1%85%AE_11.50.32.png)
스토리 라인
데이터
- FEC dataset을 이용하였음
- FEC dataset은 large-scale하고 약 155,943 faces images로 구성된 multi-identity dataset임
- 그리고 사람의 시각적인 주관에 따라 annotation된 500,203의 triplets을 가지고 있음
- In-the-wild expression dataset으로는 AffecNet과 RAF-DB 데이터셋을 사용
- 그 외, 3D data를 사용한 것은 아니므로…패스
Model
- $V_{exp}=V_{id} -V_{face}$라는 assumption을 가지고 모델링하였음
- 따라서 Identity-invariant한 deviation features를 가지고 expression embedding을 해줌
2D dataset에서 expression을 임베딩하고 그 임베딩을 가지고 여러 task를 수행하여 임베딩을 평가하였음
3D dataset에도 2D만큼의 성능을 보여줄 수 있을까..?