728x90
반응형

palm-e 2

Embodied LLM (Embodied Large Language Model)

개요Embodied LLM은 언어 모델(LLM)에 시각 정보와 센서 데이터를 통합해 실세계 물리 환경에서 행동이 가능한 인공지능 시스템을 말합니다. 이는 단순한 질문 응답을 넘어, 로봇 제어, 현실 기반 작업 수행, 자연어 지시 이해와 같은 고차원적 인식-행동 통합 능력을 갖춘 모델로 진화하고 있습니다.1. 개념 및 정의 항목 설명 정의물리적 환경에서 멀티모달 정보를 처리하고 실질적인 행동을 생성하는 언어 모델핵심 요소언어 + 시각 + 센서 + 행동 시퀀스의 통합 처리진화 방향추상적 텍스트 처리 → 실세계 맥락 이해 및 행동 수행Embodied LLM은 AI가 단순한 텍스트 생성기를 넘어서 현실 환경에서 유의미한 행동을 수행할 수 있도록 합니다.2. 특징특징설명기존 LLM과의 차이점Multimodal ..

Topic 2025.05.26

PaLM-E (Pathways Language Model - Embodied)

개요PaLM-E는 Google Research가 발표한 'Embodied Multimodal Language Model(VLM)'로, 로봇 제어 능력을 갖춘 대형 언어 모델입니다. Vision-Language-Action의 통합 아키텍처를 지향하며, 언어, 이미지, 센서 데이터를 동시에 처리하여 로봇에 직접적인 명령을 수행할 수 있는 특징을 갖습니다. 이는 기존 언어 모델과는 다른 실시간 상호작용 중심의 AI로서 새로운 진화를 예고합니다.1. 개념 및 정의 항목 내용 정의텍스트, 이미지, 로봇 센서 데이터를 입력으로 받아 언어 출력 및 로봇 행동 시퀀스를 생성하는 멀티모달 모델목표로봇이 사람의 명령을 언어와 시각정보로 이해하고 실세계에서 직접 실행 가능하게 함구성 기반PaLM (Language) + V..

Topic 2025.05.26
728x90
반응형