728x90
반응형

2025/06/21 12

Adaptive Sampling

개요Adaptive Sampling은 시스템 또는 네트워크에서 수집되는 데이터의 양과 유형을 동적으로 조정함으로써 리소스를 절약하면서도 중요한 정보를 놓치지 않도록 설계된 데이터 수집 및 관측 전략이다. 특히 APM(Application Performance Monitoring), 로그 분석, 분산 추적(Tracing) 등에서 고정 샘플링의 한계를 극복하고 데이터 품질과 처리 효율성을 모두 만족시키기 위한 핵심 기법으로 부상하고 있다.1. 개념 및 정의 항목 설명 정의시스템 동작 특성, 트래픽 상태, 이벤트 중요도 등에 따라 실시간으로 데이터 수집 비율을 조정하는 지능형 샘플링 기법목적리소스 과다 사용 없이 중요한 데이터를 효과적으로 수집주요 적용 분야APM, Observability, Distribu..

Topic 2025.06.21

MASQUE(Multiplexed Application Substrate over QUIC Encryption)

개요MASQUE(Multiplexed Application Substrate over QUIC Encryption)는 QUIC 프로토콜 위에서 HTTP 요청을 터널링하거나 UDP 트래픽을 프록시할 수 있도록 설계된 IETF 기반의 확장 프로토콜이다. HTTP/3와 QUIC의 성능과 보안을 기반으로, VPN, 프록시, 트래픽 우회 등 다양한 응용 시나리오에 최적화된 전송 기술을 제공한다.1. 개념 및 정의 항목 설명 정의HTTP/3 기반으로 QUIC 연결 위에서 다중 터널을 생성하여 다양한 트래픽을 프록시하는 전송 확장 프로토콜표준화IETF MASQUE Working Group 주도, RFC 초안 진행 중기반 프로토콜QUIC (UDP 기반) + HTTP/3MASQUE는 VPN/프록시 트래픽을 감추기 위한..

Topic 2025.06.21

QUIC Datagram

개요QUIC Datagram은 전송 계층 프로토콜 QUIC 위에서 동작하는 비연결형(non-reliable), 순서 미보장, 지연 최소화 전송 방식을 제공하는 확장 기능이다. HTTP/3, WebTransport, WebRTC 등의 실시간·저지연 애플리케이션에서 TCP 기반 연결의 한계를 극복하고, 보다 유연한 데이터 송수신을 가능하게 한다.1. 개념 및 정의 항목 설명 정의QUIC 전송 계층 위에서 동작하며 순서 보장 없이 빠르게 메시지를 전송할 수 있도록 지원하는 확장 기능목적실시간 통신, 미디어 스트리밍, 게임 등에서 지연 최소화와 복원력 향상표준화 주체IETF QUIC Working Group (RFC 9221)QUIC Datagram은 TCP 스트림의 헤드 오브 라인 블로킹 문제를 회피하며, ..

Topic 2025.06.21

Spring Cloud Contract

개요Spring Cloud Contract는 마이크로서비스 환경에서 API 계약(Contract)을 기반으로 생산자(Provider)와 소비자(Consumer) 간의 통신을 테스트하고, Stub 서버를 자동 생성하여 통합 테스트의 정확성과 효율성을 높이는 Spring 기반 프레임워크이다. 생산자 테스트 자동화, 계약 공유, 소비자 기반 테스트 구현을 통해 API 품질과 협업 안정성을 극대화한다.1. 개념 및 정의 항목 설명 정의API 명세(Contract)를 기반으로 Stub 생성 및 양방향 테스트를 자동화하는 Spring 프레임워크 구성 요소주체Pivotal / VMware (Spring 개발팀)목적API 구현과 계약 간 불일치 방지, Stub 자동 생성, Consumer/Provider 통합 테스트..

Topic 2025.06.21

Pact

개요Pact는 마이크로서비스 환경에서 서비스 간 통신 계약(API Contract)을 코드로 정의하고, 이를 기반으로 생산자(Producer)와 소비자(Consumer) 간의 상호 기대를 자동 검증할 수 있게 해주는 오픈소스 계약 기반 API 테스트 프레임워크이다.1. 개념 및 정의 항목 설명 정의소비자 중심의 계약(Contract)을 기반으로 API 동작을 검증하는 오픈소스 테스트 프레임워크주요 목적마이크로서비스 간 통신 안정성 확보, 계약 위반 사전 감지구성 모델Consumer → Pact 정의 → Pact Broker → Provider 검증Pact는 Producer와 Consumer 간 사양 불일치로 인한 장애를 방지하는 데 핵심적인 역할을 수행한다.2. 특징특징설명기존 방식과 차이점소비자 중심..

Topic 2025.06.21

Contract-First API 테스트

개요Contract-First API 테스트는 API의 동작 구현 이전에 먼저 정의된 명세(Contract)를 기반으로 테스트를 자동 생성하고 검증하는 방식이다. OpenAPI(Swagger), AsyncAPI 등의 사양을 기반으로 요청/응답 구조, 필드 유효성, 에러 처리 등을 사전에 정의하고, 이를 기준으로 테스트 자동화를 수행함으로써 사양 일관성과 서비스 품질을 동시에 확보할 수 있다.1. 개념 및 정의 항목 내용 정의API 동작 구현보다 먼저 작성된 명세(Contract)를 기준으로 테스트 케이스를 생성하고 검증하는 접근 방식주요 도구Postman, Dredd, Schemathesis, Stoplight, Pact 등적용 대상RESTful API, gRPC, GraphQL, 이벤트 기반 API ..

Topic 2025.06.21

Amundsen

개요Amundsen은 Lyft에서 개발한 오픈소스 메타데이터 검색 및 카탈로그 플랫폼으로, 사용자들이 조직 내에서 신뢰할 수 있는 데이터를 쉽게 탐색, 검색, 이해할 수 있도록 지원한다. 자동화된 메타데이터 수집, 직관적인 검색 인터페이스, 계보(Lineage) 시각화 등을 통해 데이터 거버넌스 및 셀프서비스 분석 문화 확산에 기여한다.1. 개념 및 정의 항목 내용 정의메타데이터 수집, 검색, 라벨링, 계보 시각화를 제공하는 오픈소스 데이터 카탈로그 플랫폼개발 주체Lyft → Linux Foundation AI & Data 프로젝트 편입아키텍처Metadata + Search + Frontend로 구성된 모듈형 구조Amundsen은 Google-like 검색 경험을 메타데이터에 적용한 것이 특징이다.2...

Topic 2025.06.21

DataHub

개요DataHub는 LinkedIn이 개발하고 LF AI & Data 재단이 관리하는 오픈소스 메타데이터 플랫폼으로, 대규모 데이터 환경에서 실시간 메타데이터 수집, 검색, 계보(Lineage), 품질 추적을 가능하게 하는 현대적 데이터 거버넌스 솔루션이다. 마이크로서비스 아키텍처와 Kafka 기반의 실시간 이벤트 스트리밍을 통해 지속적으로 변화하는 데이터 환경에 민첩하게 대응할 수 있다.1. 개념 및 정의 항목 설명 정의실시간 메타데이터 수집, 탐색, 계보 분석, 품질 관리, 정책 기반 거버넌스를 지원하는 오픈소스 플랫폼개발 주체LinkedIn → LF AI & Data 오픈소스 커뮤니티 주도아키텍처Kafka + GraphQL + Neo4j(또는 Elasticsearch) 기반 메타데이터 처리 플랫폼..

Topic 2025.06.21

OpenMetadata

개요OpenMetadata는 데이터 카탈로그, 데이터 계보(Lineage), 품질 관리, 권한 통제 등을 포함하는 통합형 오픈소스 메타데이터 관리 플랫폼이다. 다양한 데이터 소스와 분석 도구를 자동 연동하며, API 중심 아키텍처를 통해 유연한 거버넌스, 데이터 탐색, 데이터 옵저버빌리티를 지원한다.1. 개념 및 정의 항목 내용 정의데이터 자산에 대한 메타데이터 수집, 탐색, 계보 추적, 품질 검사, 보안 정책을 통합 제공하는 오픈소스 메타데이터 플랫폼주관CNCF Landscape 등재, 오픈소스 GitHub 프로젝트 (https://github.com/open-metadata/OpenMetadata)주요 대상데이터 엔지니어, 데이터 거버넌스팀, 데이터 분석가, 보안 관리자 등OpenMetadata는 ..

Topic 2025.06.21

Delta Lake

개요Delta Lake는 기존 데이터 레이크에 ACID 트랜잭션, 버전 관리, 스키마 강제 등의 기능을 추가하여, 안정적이고 신뢰할 수 있는 데이터 처리 환경을 제공하는 오픈소스 스토리지 레이어이다. Databricks에서 주도하며, Apache Spark 및 Lakehouse 아키텍처의 핵심 구성요소로 채택되고 있다.1. 개념 및 정의 항목 내용 정의Apache Spark 기반 데이터 레이크에 트랜잭션, 스키마 관리, 데이터 버전 기능을 추가한 스토리지 포맷 및 레이어형식Parquet + 트랜잭션 로그(_delta_log) 기반 스토리지주체Databricks 주도, Linux Foundation Project 참여Delta Lake는 "데이터 레이크의 유연성"과 "데이터 웨어하우스의 신뢰성"을 결합한..

Topic 2025.06.21

Unity Catalog

개요Unity Catalog는 Databricks에서 제공하는 통합 데이터 거버넌스 솔루션으로, 조직의 모든 데이터 자산에 대한 중앙 집중적 카탈로그, 권한 관리, 감사 추적, 계보(라인리지) 정보를 제공하는 메타데이터 관리 플랫폼이다. Lakehouse 아키텍처에 최적화되어 있으며, 데이터 엔지니어, 분석가, 보안 관리자 모두를 위한 단일 관리 체계를 실현한다.1. 개념 및 정의 항목 설명 정의Databricks 내의 테이블, 뷰, 파일, ML 모델 등에 대한 메타데이터, 권한, 라인리지 등을 중앙 관리하는 플랫폼역할데이터 거버넌스, 카탈로그 관리, 접근 제어, 감사 로깅 제공대상 환경Databricks Lakehouse, Delta Lake 기반 워크스페이스 전반Unity Catalog는 Azure..

Topic 2025.06.21

W3C TraceContext

개요W3C TraceContext는 분산 시스템 환경에서 요청 간 연관성(Trace)을 식별하고 추적할 수 있도록 HTTP 요청 헤더 기반의 표준 형식을 정의한 W3C 사양이다. 마이크로서비스 아키텍처, 서버리스, 클라우드 네이티브 환경에서 통합된 추적 체계를 구축하는 데 핵심적인 표준으로, 다양한 APM(애플리케이션 성능 모니터링) 도구 및 오픈소스 프로젝트에 채택되고 있다.1. 개념 및 정의 항목 내용 정의분산 트레이싱 정보를 HTTP 헤더로 전달하기 위한 W3C 표준 규격 (traceparent, tracestate)주관World Wide Web Consortium(W3C) 표준 기술 커뮤니티 그룹목적벤더 독립적이고 상호운용 가능한 추적 정보를 서비스 간 일관되게 전달TraceContext는 Op..

Topic 2025.06.21
728x90
반응형