개요OpenVINO™(Open Visual Inference and Neural Network Optimization)는 Intel이 개발한 고성능 딥러닝 추론 최적화 툴킷으로, CPU, GPU, VPU, FPGA 등 다양한 인텔 하드웨어에서 효율적인 모델 추론을 가능하게 합니다. ONNX, TensorFlow, PyTorch 등에서 학습된 모델을 변환하여 엣지 디바이스나 서버 환경에서 빠르게 실행할 수 있도록 지원합니다.1. 개념 및 정의 항목 내용 비고 정의다양한 인텔 하드웨어에서 AI 모델 추론을 최적화하는 오픈소스 툴킷Apache 2.0 라이선스주요 목적추론 속도 최적화, 메모리 효율화, 이식성 확보엣지 AI 및 로컬 추론에 적합지원 플랫폼Windows, Linux, macOS, IoT/엣지 ..