개요GQA(Generalized Query Attention)는 대규모 언어 모델(LLM, Large Language Model)의 효율성과 성능을 동시에 개선하기 위해 제안된 새로운 어텐션(attention) 메커니즘이다. 기존 Multi-Head Attention(MHA) 구조를 최적화하여, 메모리 사용량과 연산량을 줄이면서도 정확도와 추론 품질을 유지하거나 향상시키는 것을 목표로 한다.1. 개념 및 정의 항목 내용 설명 정의GQA (Generalized Query Attention)효율적 어텐션 계산을 위한 개선된 구조목적LLM의 성능·효율 동시 개선추론 속도 및 메모리 최적화필요성모델 규모 증가에 따른 자원 소모효율적 학습 및 추론 구조 필요GQA는 기존 MHA 구조에서 발생하는 비효율성을 개..