Force-Aware Physical AI
시각만 가진 로봇은 접촉이 필요한 작업에서 실패한다. 저희는 로봇에게 힘을 준다 — 1000Hz force-torque ground-truth 데이터셋, force-aware foundation policy, reflex 하드웨어. ICRA 2026 peer-reviewed, 풀무원(KRX:017810) pilot 협의 중, NVIDIA GTC Taipei 2026 발표 요청.
문제
GPT는 언어를 이해하고, 확산 모델은 이미지를 이해한다. 어떤 로봇 AI에게 두부를 부수지 않고 집어보라고 하면 약 80% 확률로 실패한다.
RGB 카메라는 접촉력·변형·응력을 측정할 수 없다. 이 신호 없이 로봇은 연성체·취약한 물체·신규 재료를 안전하게 다룰 수 없다.
힘 ground-truth를 더하면 결과가 뒤집힌다. RGB-only ≈ 20% → RGB+Force ≈ 83%. ≈ 4배 향상이며 ICRA 2026에서 peer-reviewed로 검증됐다.
기술 스택
시뮬레이터 품질로 경쟁하지 않는다 — 그건 commodity다. 저희는 그 아래 데이터와, 그 위 하드웨어→정책→데이터 loop으로 경쟁한다.
Layer 1 · Reflex
1000Hz F/T 센서와 ms 단위 피드백 제어. 접촉력이 갑자기 드롭하는 순간 — 두부가 부서지기 시작하는 순간 — 에 즉시 멈춘다. 어떤 로봇 arm에도 부착 가능.
Layer 2 · Policy
100Hz inference로 동작하는 force-aware foundation policy. ManipForce(ICRA 2026)에서 제안된 Frequency-Aware Multimodal Transformer 기반, SpaceData로 학습.
Layer 3 · Data Moat
Force-aware deformable manipulation의 ImageNet. 1000Hz F/T + 듀얼 카메라 30Hz + outcome label, 1,000개 이상 재료. Genesis·Isaac·Newton 같은 오픈소스 시뮬레이터는 이를 augment할 뿐, 대체하지 않는다.
코드 차별점
FEM/MPM/PBD 물리 자체는 오픈소스가 풀어놓았다. 저희는 그들이 안 푸는 부분을 푼다.
| 능력 | Genesis | Isaac Sim | Space AI |
|---|---|---|---|
| FEM/MPM/PBD 하이브리드 솔버 | 오픈소스 | 지원 (PhysX 5) | 둘 다 commodity로 활용 |
| Differentiability | 부분적 (MPM만) | 제한적 | Hybrid + PINN 레이어 |
| Per-FEM 접촉력 GT API | 미공개 | Issue #1725 open | First-class |
| 실측 1000Hz 힘 데이터셋 | — | — | 자체 보유, 확장 중 |
| 신규 재료 물성 모델 | Hand-crafted only | Hand-crafted only | Data-driven via PINN |
| Sim-to-real bridge | 사용자 몫 | 사용자 몫 | 우리 제품 |
하이브리드 솔버는 commodity다. Moat는 그 위의 실측 힘 데이터셋 — 자본으로 복제 불가능한 10년 학술 깊이다.
성과
주장이 아니라 단계로 표시. 독자가 직접 검증 가능.
Force-guided 정책 학습. 6개 contact-rich 작업 평균 ~83% 성공, RGB-only 대비 ~4배. arXiv:2509.19047. 이규빈 교수님 연구팀 발표.
KRX:017810 (FY2025 매출 ₩3.38조 ≈ $2.28B). 2026.07 production line pilot — 연성체 grasping. 협의 진행 중.
Inception 승인(2026.04) · N-UP 진행 중(한국 정부 + NVIDIA Korea) · NVIDIA Asia long-term commitment 후보 · GTC Taipei 2026(6.1–4) 발표 요청.
NIPA 국가 컴퓨팅 인프라 — SpaceData 학습용. 전국 12위 규모 frontier compute.
삼성전자와 공동 특허 출원 (2024.12).
$10K AWS credits LOI (CES 2026). 초기 단계 — 정식 계약 아님.
협력 파트너
학술 Anchor
Force-aware Physical AI는 기능이 아닌 연구 분야다. 자본으로 복제할 수 없다.
Space AI는 GIST 이규빈 교수님 AI랩의 산업 deployment 파트너다 — 한국 Force-aware Physical AI의 학술 중심. 랩은 peer-reviewed 연구를, Space AI는 산업 채널을 가져온다. 두 축이 함께 움직인다.
ManipForce (ICRA 2026 accepted) — 랩의 force-aware 정책 연구, SpaceModel 아키텍처의 핵심.
FEM/MPM/PBD + PINN hybrid stack과 data-driven 물성 모델 — 랩의 연구 로드맵이 Space AI 제품과 정렬되어 있다.
랩 연구가 실제 산업에 deploy된다 — 풀무원 production line, NVIDIA Asia partnerships. Toy benchmark가 아닌 real industrial environment.
SIGGRAPH · NeurIPS · ICRA · CoRL — Space AI가 자금과 ship을 담당하고, 랩은 학술 ownership를 유지한다.
산업
식품 핸들링과 contact-rich manipulation에서 시작해, 물리적 상호작용이 중요한 모든 산업으로 확장한다.
파지 최적화, 접촉 기반 조작, 연성체 핸들링
연성체·취약·불균질 재료 — 두부, 빵, 케이블
연조직 변형 시뮬레이션, 수술 경로 계획
충돌 변형 예측, 탑승자 안전 시뮬레이션
내진 해석, 풍하중 구조 시뮬레이션
복합재 파손 해석, 열변형 시뮬레이션
로봇이 두부를 부수는 것.
취약한 포장을 집지 못하는 것.
수술 로봇이 환자를 위험에 빠뜨리는 것.
모두 로봇이 만질 수 없기 때문이다.
저희가 촉각을 만들고 있다.
비즈니스 모델
매출 진화 사다리. Stage 3는 분야 변곡점 도달 전제의 stretch goal.
고객별 맞춤 force 데이터셋. 풀무원 pilot 협의 중. N-UP 진행 중.
Engine 구독 모델. 고객이 직접 시나리오 정의·데이터 생성. Real-world grounding이 margin.
모든 로봇이 학습 시 쿼리하는 물리 IP. ARM-style licensing — 반드시 반영 아닌 stretch goal.
시장 맥락
Robotics foundation model 분야는 $5B–$40B 규모로 태그되고 있다. 저희는 풀스택 humanoid bet와 경쟁하지 않는다 — 그 아래 force-data IP segment을 소유하며, 한국 deep-tech 속도에 맞는 규모를 노린다.
위는 billion-scale 풀스택 bet들. Space AI는 force-data IP에 집중 — 한국 deep-tech 라운드로 코어 엔진 완성이 가능한 규모다.
팀
창업 18개월 만에 TIPS 선정, 삼성 공동 특허, CES 참가, ICRA publish를 달성했다.