[이코노믹데일리] 마이크로소프트(MS)가 인간의 언어를 이해하고 촉각까지 느끼는 자체 개발 로봇 기술을 공개하며 '피지컬 AI(Physical AI)' 시장 쟁탈전에 가세했다. 생성형 AI가 언어와 시각 정보를 정복한 데 이어 물리적 세계에서 직접 행동하는 로봇으로 전선을 확대한 것이다.
MS는 22일(현지시간) 자사 연구소(MS리서치) 홈페이지를 통해 첫 로보틱스 모델 '로-알파(Rho-alpha)'를 전격 공개했다. 이 모델은 MS의 소형언어모델(sLLM)인 '파이(Phi)' 시리즈를 기반으로 개발됐으며 기존 시각언어행동(VLA) 모델에 촉각 센싱을 더한 'VLA 플러스(+)' 기술이 적용됐다.
로-알파의 가장 큰 특징은 '촉각'과 '양손 조작'이다. 공개된 영상에서 로-알파는 콘센트에 꽂힌 플러그를 뽑아 다른 위치로 옮겨 꽂거나 복잡한 버튼 조작기를 능숙하게 다루는 모습을 보였다. 카메라로 상황을 인식하는 것을 넘어 손끝으로 전해지는 힘(Force)과 접촉 상태를 감지해 정교한 힘 조절이 가능하다. 이는 현대차그룹 보스턴다이내믹스가 최근 CES 2026에서 공개한 휴머노이드 '아틀라스'의 방향성과 궤를 같이한다.
실시간 학습 능력도 강화했다. 로봇이 작업 중 오류를 범할 경우 사용자가 3D 마우스 등으로 동작을 교정해주면 이를 즉각적으로 학습해 다음 행동에 반영한다. 별도의 복잡한 코딩 없이 인간의 피드백만으로 로봇을 훈련시킬 수 있는 셈이다.
애슐리 로렌스 MS 리서치 부사장은 "피지컬 AI는 생성형 모델이 언어와 시각 영역을 혁신했듯 로보틱스 분야를 재정의할 것"이라며 "비구조화된 환경에서도 로봇이 자율적으로 인지하고 행동하는 기술을 지원하겠다"고 밝혔다. MS는 향후 로-알파를 실제 로봇 시스템에 도입할 파트너사를 모집해 상용화 가능성을 타진할 계획이다.
Copyright © 이코노믹데일리, 무단전재·재배포 금지










