개요Word Embedding은 단어를 고차원 희소 벡터가 아닌 저차원 밀집 벡터(Dense Vector)로 표현하는 자연어 처리(NLP) 기술이다. 단어 간 의미적 유사성과 문맥적 관계를 수치적으로 학습할 수 있게 해 주며, 검색, 추천, 번역, 질의응답, 생성형 AI 등 다양한 언어 처리 시스템의 기반이 된다.1. 개념 및 정의Word Embedding은 단어의 의미를 벡터 공간에 매핑하는 표현 학습 기법이다. 같은 문맥에서 자주 등장하는 단어는 비슷한 벡터에 위치하도록 학습되며, 이를 통해 단어 간 관계를 계산할 수 있다. 즉, 단어를 단순한 문자열이 아니라 의미를 가진 수치 표현으로 바꾸는 기술이라고 볼 수 있다.2. 특징구분설명비교 요소밀집 표현단어를 저차원 벡터로 표현One-hot 대비 메모리..