구글 딥마인드, 물리적 추론 강화한 제미나이 로보틱스 ER 1.6 공개
구글 딥마인드가 2026년 4월 14일 물리적 추론 능력을 극대화한 제미나이 로보틱스 ER 1.6을 발표했습니다. 이 모델은 산업 현장의 계기판 분석과 복잡한 작업 계획 수립에 특화된 기능을 제공합니다.
주장구글 딥마인드는 로봇이 산업 현장에서 실질적인 성과를 내려면 단순한 지시 수행을 넘어 물리적 세계를 스스로 추론하는 능력이 필수적이라고 판단합니다. 제미나이 로보틱스 ER 1.6은 디지털 지능과 물리적 행동 사이의 간극을 좁히는 체화된 추론 능력을 목표로 합니다.
팩트제미나이 로보틱스 ER 1.6은 2026년 4월 14일에 공식 발표되었습니다. 이 모델은 이전 버전인 제미나이 로보틱스 ER 1.5와 제미나이 3.0 플래시 모델보다 공간 및 물리적 추론 능력이 크게 향상되었습니다.
팩트해당 모델은 구글 검색과 시각-언어-행동 모델, 사용자가 정의한 외부 함수를 직접 호출하는 에이전트 기능을 갖춥니다. 로봇은 이를 활용해 복잡한 작업 계획을 스스로 수립하고 작업 성공 여부를 판단합니다.
팩트보스턴 다이내믹스와의 협업으로 계기판 읽기 기능도 추가되었습니다. 로봇은 온도계와 압력계, 액체 레벨 게이지 등 산업 현장의 복잡한 계기판을 시각적으로 분석하고 수치를 정확히 읽어냅니다.
팩트이 모델은 공간 추론의 기초인 가리키기 기능을 통해 물체 개수를 파악하고 관계 논리를 정의하며 이동 경로를 매핑합니다. 특히 작은 물체를 식별하거나 특정 제약 조건을 준수해야 하는 복잡한 명령 처리에 강점을 보입니다.
교차검증로봇의 시각적 이해는 가림 현상이나 열악한 조명, 모호한 지시 사항 등 다양한 환경적 변수에 의해 방해받을 가능성이 존재합니다. 구글은 이를 해결하고자 다중 카메라 뷰를 통합하여 일관된 상황 인식을 수행하도록 모델을 설계했습니다.
팩트안전성 측면에서 제미나이 로보틱스 ER 1.6은 역대 로봇 모델 중 가장 높은 기준을 준수합니다. 실제 부상 보고서를 기반으로 한 테스트에서 제미나이 3.0 플래시 대비 텍스트 인식은 6%, 비디오 인식은 10% 더 높은 위험 감지 성능을 기록했습니다.
팩트제미나이 로보틱스 ER 1.6은 현재 구글 AI 스튜디오와 제미나이 API를 통해 개발자들에게 공개되었습니다. 구글은 개발자가 모델을 쉽게 설정하고 체화된 추론 작업을 수행하도록 돕는 코랩 예제 코드를 함께 제공합니다.
주장구글 딥마인드는 로봇 커뮤니티와의 협력을 통해 모델 성능을 지속적으로 개선할 계획입니다. 특정 산업 환경에서 모델이 실패하는 사례를 10개에서 50개의 라벨링된 이미지로 제출하면 향후 릴리스에서 이를 반영하여 기능을 보완합니다.
출처구글 딥마인드 공식 블로그(https://deepmind.google/blog/gemini-robotics-er-1-6/)를 교차 검증했습니다. 본 내용은 2026년 4월 14일 게시된 제미나이 로보틱스 ER 1.6 기술 소개 자료를 바탕으로 작성되었습니다.
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.