728x90
반응형

MTEB 2

BGE(BGE Embedding Model)

개요BGE(Bidirectional Generative Embedding)는 텍스트 임베딩 품질 향상에 중점을 둔 오픈소스 문장 임베딩 모델 시리즈로, 검색(Retrieval), 분류(Classification), 랭킹(Ranking) 등 다양한 NLP 태스크에서 뛰어난 성능을 발휘합니다. Hugging Face 및 MTEB(Massive Text Embedding Benchmark)에서 상위권 성능을 기록하며, 다양한 언어와 태스크에 쉽게 활용될 수 있도록 설계되었습니다.1. 개념 및 정의 항목 설명 정의다양한 언어와 태스크에 대응 가능한 범용 문장 임베딩 모델목적검색 정확도와 표현력 높은 임베딩 벡터 생성필요성RAG, Semantic Search, 분류 등에서의 표현 품질 개선BGE는 '텍스트 → ..

Topic 2026.01.31

MTEB (Massive Text Embedding Benchmark)

개요MTEB(Massive Text Embedding Benchmark)는 텍스트 임베딩 모델의 성능을 다양한 다운스트림 태스크에서 종합적으로 평가하기 위한 대규모 벤치마크 프레임워크이다. Semantic Search, Clustering, Classification 등 실제 언어 응용 시나리오를 포괄하며, 언어별/도메인별 모델 비교와 진화된 벤치마크 기준 수립에 기여하고 있다.1. 개념 및 정의 항목 설명 정의텍스트 임베딩 모델을 다양한 자연어 처리 태스크로 평가하는 벤치마크 모음목적범용 임베딩 모델의 실제 적용 성능 정량화 및 비교필요성기존 벤치마크는 태스크/도메인별로 단편적 평가만 가능했음Hugging Face와 공동 연구로 유지되며, 지속적으로 데이터셋이 업데이트된다.2. 특징특징설명비교멀티태스..

Topic 2026.01.12
728x90
반응형