특정 단어를 vector space로 mapping → 의미상 유사한 단어는 가까이 위치하도록
<aside> ➡️ Word-level
</aside>
Neural Network Language Model
NN을 이용한 Word Embedding 원조격 모델 (2003)
distributed representations를 통해서 one-hot vector의 curse of dim 문제를 해결하고자 함
작동 원리
NNLM: 다음 단어 예측
Word2Vec: 주변 단어 → 중심 단어 예측 (CBOW) / 중심 단어 → 주변 단어 예측 (Skip-gram)