728x90
반응형

2025/05/19 12

Toolformer

개요Toolformer는 대형 언어 모델(LLM)이 API, 계산기, 검색 엔진 등 다양한 외부 도구(tool)를 언제, 어떻게, 왜 사용할지를 스스로 학습하는 프레임워크입니다. 이는 Meta AI에서 제안한 혁신적인 접근으로, LLM이 사전 감독 없이도 툴 사용 능력을 내재화함으로써 복잡한 실세계 태스크에서 성능을 대폭 향상시킬 수 있도록 설계되었습니다. 특히 도구 호출 시점과 인자(argument)를 자율적으로 예측하고, 그로 인한 응답을 추론 흐름에 통합하는 것이 핵심입니다.1. 개념 및 정의 구분 설명 정의LLM이 API 호출을 포함한 외부 도구 사용을 스스로 학습하여 통합적으로 문제를 해결하는 학습 구조목적외부 툴을 통해 LLM의 계산 능력, 정보 검색, 사실 정확도 등 보완필요성LLM의 한계..

Topic 2025.05.19

Holistic Evaluation of Language Models (HELM)

개요HELM(Holistic Evaluation of Language Models)은 대형언어모델(LLM)의 성능을 단순 정확도나 정답률을 넘어, 공정성, 편향성, 신뢰성, 견고성, 효율성 등 다차원적 관점에서 정량·정성 평가하는 포괄적 벤치마크 프레임워크입니다. 스탠포드 CRFM(Center for Research on Foundation Models)이 주도하여 개발하였으며, LLM에 대한 책임 있는 도입과 운영을 위한 필수 도구로 부상하고 있습니다.1. 개념 및 정의 구분 내용 정의LLM을 다양한 사용 시나리오와 평가 차원에서 분석·비교하는 벤치마크 체계목적단일 지표 평가의 한계를 극복하고, LLM의 전반적 신뢰성 및 사회적 영향력까지 진단필요성AI 사용 확대에 따른 윤리·안전·공정성 문제를 사전..

Topic 2025.05.19

RLAIF (Reinforcement Learning from AI Feedback)

개요RLAIF(Reinforcement Learning from AI Feedback)는 인공지능 모델의 출력 품질을 향상시키기 위해 인간이 아닌 또 다른 AI의 피드백을 활용하는 강화 학습 기법입니다. 기존 RLHF(Human Feedback)의 확장 버전으로, 비용과 시간 소모가 큰 인간 피드백 대신 AI 평가자를 활용하여 대규모 스케일에서도 효과적인 모델 개선을 가능하게 합니다. OpenAI, Anthropic, DeepMind 등 주요 연구기관에서 실제 LLM 성능 개선에 채택하고 있으며, 차세대 AI 개발 전략의 핵심으로 부상하고 있습니다.1. 개념 및 정의 구분 설명 정의AI 모델의 출력을 또 다른 AI가 비교·평가한 결과를 바탕으로 정책 모델(policy)을 학습시키는 프레임워크목적인간 개..

Topic 2025.05.19

Constitutional AI

개요Constitutional AI는 인공지능 시스템이 사람의 지시나 가치 판단 없이도 스스로 윤리적·법적으로 더 나은 결정을 내릴 수 있도록 학습시키는 기술 패러다임입니다. AI 모델에 일련의 “헌법(Constitution)” 문서를 명시하고, 이를 기반으로 자기 검열(Self-Critique)과 개선(Self-Improvement)을 반복하여 인간 개입 없이도 안전하고 일관된 행동을 유도하는 방식입니다. Anthropic의 Claude 모델 개발을 통해 본격화되었으며, LLM 안전성의 새로운 기준으로 떠오르고 있습니다.1. 개념 및 정의 구분 내용 정의AI가 사전에 주어진 윤리/가이드라인(헌법)에 따라 스스로 판단과 응답을 조정하도록 학습하는 방식목적인간 피드백 없이도 윤리성과 일관성을 갖춘 AI ..

Topic 2025.05.19

Attribute-Based Encryption (ABE)

개요Attribute-Based Encryption(ABE)은 사용자 속성(attribute)을 기반으로 암호화된 데이터를 제어할 수 있도록 설계된 공개키 암호화 기법입니다. 기존의 ID 기반 암호화 또는 키 기반 접근 제어와 달리, ABE는 “속성 기반 정책”에 따라 암호문 접근이 가능하기 때문에, 분산 시스템이나 클라우드 환경에서 유연한 데이터 공유 및 보안 제어에 적합합니다.1. 개념 및 정의 구분 설명 정의특정 속성 집합이 부합하는 사용자만 복호화할 수 있는 조건 기반 암호화 방식목적사용자 식별이 아닌 조건 매칭을 통한 유연한 데이터 접근 통제 구현필요성클라우드, IoT, 의료정보 등 민감한 데이터 공유 환경에서 접근 제어의 확장성 확보2. ABE 유형 비교유형설명특징KP-ABE (Key-Pol..

Topic 2025.05.19

Confidential AI

개요Confidential AI는 민감한 데이터를 기반으로 인공지능 모델을 학습하거나 추론하는 과정에서, 데이터의 기밀성과 무결성을 보장하기 위한 보안 기술과 설계 전략을 말합니다. 특히 의료, 금융, 국방 등 고신뢰 산업에서 프라이버시 보호와 AI 성능 간 균형을 확보하기 위한 핵심 프레임워크로 주목받고 있으며, 하드웨어 기반의 신뢰 실행 환경(TEE)과 암호화 기반 연산 기술을 결합해 보안성과 확장성을 동시에 달성할 수 있습니다.1. 개념 및 정의 구분 내용 정의AI 학습 및 추론 과정에서 민감 데이터의 노출 없이 연산이 수행되도록 보장하는 기술 전략목적데이터 보호, 규제 준수, 신뢰성 확보를 동시에 달성필요성개인정보보호법, 산업기밀 보호, 클라우드 기반 AI 도입 증가에 따른 보안 강화 요구2. ..

Topic 2025.05.19

Model Inversion/Extraction Attack

개요Model Inversion 및 Extraction Attack은 머신러닝/딥러닝 모델에 대한 보안 위협 중 하나로, 공격자가 AI 모델의 내부 정보나 학습 데이터를 추론하거나 모델 자체를 복제해내는 공격 방식입니다. 이들은 특히 클라우드 기반의 MLaaS(Model-as-a-Service) 환경에서 API를 통해 손쉽게 실행될 수 있어, 개인정보 노출, 지적재산권 침해, 모델 악용 등의 심각한 결과를 초래할 수 있습니다.1. 개념 및 정의 공격 유형 정의 목적 Model Inversion Attack모델의 출력값을 활용하여 원래의 학습 데이터를 재구성개인 이미지/정보 복원Model Extraction AttackAPI 응답을 이용해 원본 모델을 복제하거나 유사 모델 생성모델 기능 복제, 역설계2..

Topic 2025.05.19

AI Red Teaming

개요AI Red Teaming은 인공지능 시스템에 대해 공격자 관점에서 위협 모델링 및 취약점 평가를 수행하는 테스트 전략으로, 모델의 신뢰성, 안전성, 악용 가능성 등을 식별하고 개선하기 위한 사전 대응 프로세스입니다. 전통적인 사이버보안의 레드팀 개념을 인공지능 영역으로 확장한 개념으로, 특히 LLM, 이미지 생성 모델, 자율주행 AI 등 복잡한 AI 시스템에 필수적인 보안 절차로 부상하고 있습니다.1. 개념 및 정의 구분 설명 정의AI 시스템에 대한 공격 시나리오 시뮬레이션 및 취약점 탐지 테스트 수행 활동목적AI 시스템의 악용, 편향, 정보 노출 등의 리스크 조기 발견 및 완화필요성AI 기반 서비스 확대에 따른 안전·윤리·법적 리스크에 대한 선제적 대응 요구2. 특징특징설명차별점공격자 시점 분석..

Topic 2025.05.19

Hybrid PQC–TLS 1.3 Handshake

개요Hybrid PQC–TLS 1.3 Handshake는 기존 공개키 암호와 양자내성암호(PQC)를 결합하여 TLS 1.3 프로토콜의 키 교환 및 인증 절차에 적용하는 새로운 암호 전략입니다. 이는 양자 컴퓨팅의 발전에 따른 기존 암호 방식의 붕괴 위험에 대응하기 위한 과도기적 접근으로, NIST PQC 표준화 과정과 맞물려 산업계에서 주목받고 있습니다.1. 개념 및 정의 구분 설명 정의TLS 1.3 핸드셰이크에 기존 ECC/RSA 알고리즘과 양자내성암호를 동시에 적용하여 키 교환 수행목적양자 공격 대응과 동시에 기존 암호와의 호환성 유지필요성양자컴퓨터의 Shor 알고리즘이 공개키 기반 알고리즘을 무력화할 가능성에 대비2. 특징특징설명기존 TLS와 차이이중 키 교환PQC + ECC 키 교환 병렬 수행단..

Topic 2025.05.19

Intel CET (Control-flow Enforcement Technology)

개요Intel CET(Control-flow Enforcement Technology)는 리턴 지향 프로그래밍(ROP) 및 점프 지향 프로그래밍(JOP) 등 런타임 메모리 조작 공격을 방지하기 위해 인텔이 설계한 하드웨어 기반 보안 기술입니다. 이는 CPU 레벨에서 제어 흐름 무결성을 강화함으로써 소프트웨어만으로는 막기 어려운 취약점을 보완합니다. Windows 10/11, Linux 커널 등 주요 운영체제에서 지원되며, 최신 하드웨어 보안 전략의 핵심 요소로 부상하고 있습니다.1. 개념 및 정의 구분 내용 정의런타임 제어 흐름 무결성을 하드웨어 수준에서 보장하는 CPU 보안 기능목적ROP/JOP 기반 제로데이 공격 차단필요성기존 DEP, ASLR 우회 공격 증가에 따른 하드웨어 방어 기술 필요2. 특..

Topic 2025.05.19

CARTA (Continuous Adaptive Risk & Trust Assessment)

개요CARTA(Continuous Adaptive Risk and Trust Assessment)는 기존의 고정된 보안 경계를 넘어, 실시간 위험과 신뢰 수준을 기반으로 지속적으로 정책을 조정하는 동적 사이버 보안 프레임워크입니다. 가트너(Gartner)가 2017년에 제안한 이 개념은 제로 트러스트를 확장한 모델로, 변화하는 사용자·기기·행위의 맥락(Context)을 기반으로 보안 결정을 내리는 데 중점을 둡니다.1. 개념 및 정의 구분 내용 정의실시간 위험 평가 및 신뢰 수준에 따라 보안 결정을 지속적으로 조정하는 보안 아키텍처목적동적 환경 속에서도 최소 권한 원칙과 유연한 접근 통제를 병행 구현필요성디지털 워크플로우, 원격 근무, 멀티디바이스 환경 증가에 따라 고정 정책의 한계 발생2. 특징특징설..

Topic 2025.05.19

CIEM (Cloud Infrastructure Entitlement Management)

개요CIEM(Cloud Infrastructure Entitlement Management)은 클라우드 환경에서 사용자, 역할, 서비스의 권한을 효과적으로 분석, 관리, 제어하기 위한 클라우드 보안 기술입니다. 특히 퍼블릭 클라우드에서 무분별하게 확장되는 권한 남용, 과도한 접근 권한 문제를 해결하기 위한 전략으로, 제로 트러스트 아키텍처와 맞물려 점점 중요성이 커지고 있습니다.1. 개념 및 정의 구분 내용 정의클라우드 리소스에 대한 사용자 및 서비스의 접근 권한을 식별, 분석, 최소화하는 보안 관리 체계목적과도한 권한(Over-privilege) 제거 및 최소 권한 원칙 구현필요성IAM 정책의 복잡도, Shadow Admin, 권한 스프롤(Sprawl)로 인한 리스크 증가2. 특징특징설명차별점클라우드..

Topic 2025.05.19
728x90
반응형