개요PaLM-E는 Google Research가 발표한 'Embodied Multimodal Language Model(VLM)'로, 로봇 제어 능력을 갖춘 대형 언어 모델입니다. Vision-Language-Action의 통합 아키텍처를 지향하며, 언어, 이미지, 센서 데이터를 동시에 처리하여 로봇에 직접적인 명령을 수행할 수 있는 특징을 갖습니다. 이는 기존 언어 모델과는 다른 실시간 상호작용 중심의 AI로서 새로운 진화를 예고합니다.1. 개념 및 정의 항목 내용 정의텍스트, 이미지, 로봇 센서 데이터를 입력으로 받아 언어 출력 및 로봇 행동 시퀀스를 생성하는 멀티모달 모델목표로봇이 사람의 명령을 언어와 시각정보로 이해하고 실세계에서 직접 실행 가능하게 함구성 기반PaLM (Language) + V..