728x90
반응형

embodiedai 3

PaLM-E (Pathways Language Model - Embodied)

개요PaLM-E는 Google Research가 발표한 'Embodied Multimodal Language Model(VLM)'로, 로봇 제어 능력을 갖춘 대형 언어 모델입니다. Vision-Language-Action의 통합 아키텍처를 지향하며, 언어, 이미지, 센서 데이터를 동시에 처리하여 로봇에 직접적인 명령을 수행할 수 있는 특징을 갖습니다. 이는 기존 언어 모델과는 다른 실시간 상호작용 중심의 AI로서 새로운 진화를 예고합니다.1. 개념 및 정의 항목 내용 정의텍스트, 이미지, 로봇 센서 데이터를 입력으로 받아 언어 출력 및 로봇 행동 시퀀스를 생성하는 멀티모달 모델목표로봇이 사람의 명령을 언어와 시각정보로 이해하고 실세계에서 직접 실행 가능하게 함구성 기반PaLM (Language) + V..

Topic 2025.05.26

Habitat 3.0

개요Habitat 3.0은 Meta AI가 주도하여 개발한 Embodied AI 연구용 시뮬레이션 플랫폼으로, 물리적으로 현실적인 환경에서 로봇 및 AI 에이전트가 ‘걷고 보고 조작하는’ 능력을 학습할 수 있도록 지원합니다. 특히 실내 환경에서 인간과의 상호작용, 객체 탐색 및 운반, 복잡한 경로 계획 등이 가능한 고해상도 멀티센서 시뮬레이션과 상호작용 가능한 사람형 아바타(avatars)를 포함한 것이 핵심 차별점입니다.1. 개념 및 정의 구분 내용 정의Embodied AI를 위한 대규모 3D 시뮬레이션 플랫폼으로, 현실적 물리 환경과 인간-에이전트 상호작용을 학습 가능하게 함목적실제 환경 이전에 안전하고 확장성 높은 사전 학습 제공필요성로봇의 자율성 강화를 위한 비싼 실험 비용, 현실적 리스크를 시..

Topic 2025.05.20

Embodied AI

개요Embodied AI는 물리적 또는 시뮬레이션된 공간에서 센서(시각, 촉각, 음성 등)로 지각하고, 로봇 또는 가상 에이전트를 통해 실질적인 행동을 수행하는 인공지능입니다. 이는 언어 모델, 비전, 강화학습, 로보틱스를 통합한 프레임워크로, “생각만 하는 AI”를 넘어 “행동하는 AI”로의 전환을 이끄는 핵심 기술로 주목받고 있습니다. OpenAI, Meta, Google DeepMind, Boston Dynamics 등이 활발히 연구 중입니다.1. 개념 및 정의 구분 내용 정의센서 입력을 받아 환경을 이해하고, 실제 행동을 통해 목표를 수행하는 인공지능 시스템목적실세계 기반 문제 해결 능력을 가진 지능형 에이전트 구현필요성단순 질의응답형 LLM의 한계 극복, 실용 AI 및 로봇 시장 확대 대응2...

Topic 2025.05.20
728x90
반응형