728x90
반응형

T5 2

Transformer Encoder-Decoder Variants

개요Transformer는 Google이 2017년 발표한 "Attention is All You Need" 논문에서 소개된 딥러닝 아키텍처로, 자연어 처리(NLP)를 중심으로 기계 번역, 문장 요약, 코드 생성, 이미지 캡셔닝 등 다양한 분야에 적용되고 있습니다. 특히 Encoder-Decoder 구조는 입력을 분석(Encoding)하고 출력으로 생성(Decoding)하는 이중 모듈 기반으로, 이후 다양한 변형 모델(Variants) 이 등장하며 Transformer의 활용 영역을 비약적으로 확장시켰습니다.1. 개념 및 정의Transformer Encoder-Decoder 구조는 크게 두 개의 블록으로 구성됩니다.Encoder: 입력 시퀀스를 받아 의미를 요약한 벡터(컨텍스트 벡터)로 변환Decoder..

Topic 2025.04.06

PLM (Pre-trained Language Model)

개요PLM(Pre-trained Language Model, 사전 학습 언어 모델)은 대규모 텍스트 데이터를 학습한 후 다양한 자연어 처리(NLP) 작업에 활용할 수 있도록 설계된 AI 모델입니다. 이 기술은 챗봇, 기계 번역, 텍스트 생성, 문서 요약 등 다양한 AI 기반 서비스의 핵심이 되고 있습니다. BERT, GPT, T5 등의 모델이 대표적이며, 최근에는 멀티모달 AI와 결합되어 더욱 정교한 AI 서비스가 가능해졌습니다. 본 글에서는 PLM의 개념, 주요 기술 요소, 활용 사례 및 미래 전망을 살펴봅니다.1. PLM(Pre-trained Language Model)란?PLM은 대규모 데이터셋을 기반으로 사전 학습(Pre-training)된 후, 다양한 자연어 처리 작업에 적용할 수 있는 언어 모..

Topic 2025.03.07
728x90
반응형