A.I./NLP
[Paper Review] Efficient Estimation of Word Representations inVector Space ② | Word Representation ③ Word2Vec
공부하는
2023. 4. 8. 18:44
목차
Abstract
1. Introduction
2. Model Architectures
3. New Log-linear Models
3.1 Continuous Bag-of-Words Model (CBOW)
3.2 Continuous Skip-gram Model (Skip-gram)
4. Results
5. Examples of the Learned Relationships
6. Conclusion
7. Follow-Up Work
이번 포스팅은 Word2Vec으로 잘 알려진 <Efficient Estimation of Word Representations inVector Space> 논문 리뷰이다. (사실은 그냥 해석하고 요약..)
포스팅 ② 편은 위와 같은 목차에서 3절, CBOW와 Skip-gram에 대해 작성되었다.
3. New Log-linear Models
- 대부분의 계산량은 non-linear hidden layer에서 발생 → 개선하자!
- 계산 복잡도를 최소화하면서 word representation을 학습하기 위한 두 가지 모델 제시 → CBOW, Skip-gram
3.1 Continuous Bag-of-Words Model
- NNLM과 유사한 구조
- But, 1️⃣ NNLM의 non-linear hidden layer 제거
2️⃣ projection에 모든 단어 공유 (이때 단어 순서 무시)
⇒ 단어 벡터의 평균 계산 - history, future word를 사용하여 current word 예측
- Training Complexitiy: $Q = N*D + D*log_2(V)$
3.2 Continuous Skip-gram Model
- current word를 사용하여 surrounding word 예측
- current word를 기준으로 주변 단어들 사이 거리에 따라 가중치 부여
- Training Complexitiy: $Q = C*(D+D*log(V))$, C: maximum distance of the words
- current word를 입력으로 하여 (R + R) word classification, R은 1~C 범위의 숫자