728x90
반응형

프롬프트임베딩 2

E5(Embedding from Explanation, Extreme, Efficient, Effective, Embedding)

개요E5는 다양한 자연어 처리 태스크에서 고품질의 텍스트 임베딩을 제공하기 위해 설계된 범용 임베딩 모델 시리즈입니다. 검색(Retrieval), 분류(Classification), RAG(Retrieval-Augmented Generation) 등에 특화된 모델로, 텍스트 간 의미 유사도를 고정된 벡터 공간에서 계산할 수 있게 해 줍니다. E5는 명시적 프롬프트와 다태스크 학습 방식으로 높은 정확도와 확장성을 확보합니다.1. 개념 및 정의 항목 설명 정의프롬프트 기반 다태스크 학습을 통해 다양한 태스크에 적합한 텍스트 임베딩 생성 모델목적의미 기반 검색 및 NLP 응용을 위한 강력한 벡터 표현 제공필요성sparse 방법(BM25) 대비 의미 중심 검색 정확도 개선E5는 HuggingFace Trans..

Topic 2026.01.31

BGE(BGE Embedding Model)

개요BGE(Bidirectional Generative Embedding)는 텍스트 임베딩 품질 향상에 중점을 둔 오픈소스 문장 임베딩 모델 시리즈로, 검색(Retrieval), 분류(Classification), 랭킹(Ranking) 등 다양한 NLP 태스크에서 뛰어난 성능을 발휘합니다. Hugging Face 및 MTEB(Massive Text Embedding Benchmark)에서 상위권 성능을 기록하며, 다양한 언어와 태스크에 쉽게 활용될 수 있도록 설계되었습니다.1. 개념 및 정의 항목 설명 정의다양한 언어와 태스크에 대응 가능한 범용 문장 임베딩 모델목적검색 정확도와 표현력 높은 임베딩 벡터 생성필요성RAG, Semantic Search, 분류 등에서의 표현 품질 개선BGE는 '텍스트 → ..

Topic 2026.01.31
728x90
반응형