Teleoperation Starter Kit

新世代機器人動作捕捉與協作引擎

以高精度 IMU 全身動作捕捉技術為核心,快速實現機器人遠端操控 (Teleoperation)、控制模擬、仿生控制、VLA 數據擴展、到數位孿生。
quotation marks top

釋放具身智慧與人形機器人的潛力

j-mex Teleoperation Starter Kit 以人體全身動作捕捉與參數化機器人關節動作映射為核心,提供一個便捷的解決方案能快速實現機器人遠端操控 (Teleoperation)、控制模擬、仿生控制、VLA 數據擴展、到數位孿生。

j-mex 致力於與我們的合作夥伴,共同打造新世代的人機協作模式,並釋放具身智慧 (Embodied AI) 的無限潛力。

quotation marks bottom

數據獲取新標準:快速獲取高品質的人類示範數據

高品質的人類示範數據 (Demonstration Data) 是具身智慧 (Embodied AI) 與模仿學習 (Imitation Learning) 的基石。j-mex Teleoperation Starter Kit 專為解決傳統方法在數據品質、轉換效率與開發速度上的三大痛點而設計。

banner 02
即時高精度數據源 / Real-Time High-Fidelity Data Source
痛點:
傳統 Mocap 設備多數僅能追蹤末端姿態 (End-Effector),導致數據不完整,難以用於複雜的具身智慧任務。
j-mex 數據優勢:
j-mex 提供即時的全身多關節 (Full-body Multi-joint) 追蹤,捕捉更精確、更完整的動作數據,確保您可以獲取高精度的示範數據。
banner 03
參數化關節結構映射 / Parameterized Joint Structure Mapping
痛點:
人類動作數據 (Avatar Motion) 與機器人移動控制 (Robot Motion) 之間存在巨大的物理和結構性隔閡。傳統流程需耗費大量時間進行手動或額外開發轉換。
j-mex 解決方案:
獨家的 Human-to-Robot Mapping 演算法,解決了從人體活動關節到移動受限制的機器人關節之間的複雜轉換難題。尤其是在手臂控制,可以快速地在 end-effector 模式或是 Humanoid 手臂模式之間切換,並直接透過 ROS2 的協定,輸出機器人控制可直接使用的座標及移動資訊。
banner 04
簡化 Cobot/Manipulator Arm 控制設定 / Simplified Cobot & Manipulator Setup
痛點:
傳統設定需要透過程式編寫,或是圖控編輯,然後觀察機器手臂試運行的結果,再進行調整與路徑優化。
j-mex 效率:
結合 Teleoperation 透過在 Isaac Sim 中的模擬控制,可以快速地收斂最佳操作路徑,再進一步轉換為自動化操作程序,簡化機器手臂自動化操作的設定複雜度。

加速開發的三大核心能力

為了推動機器人技術和具身人工智慧的快速發展,j-mex Teleoperation Starter Kit 專注於以下三個關鍵能力:

端對端遠端操作
End-to-End Teleoperation
提供高穩定、高品質的運作數據,實現低延遲、動作流暢的遠端控制。全面支援即時控制與複雜人機互動,適用於多種機器人平台。預設支援數款 Cobot Arm 及 Humanoid,並提供客製化導入服務。
人機映射
Motion Retargeting

獨家 Motion Retargeting 演算法,能夠將人類骨架即時、精準地轉換為機器人多軸 Joint Control 訊號。內建骨架拓樸切換 (Skeleton Topology Switching),使用者可一鍵切換至人形機器人 (Humanoid) 或協作手臂 (Cobot Arm) 模式。
Omniverse 生態系整合
Omniverse Ecosystem Integration
支援 URDF 及 ROS2 業界標準。深度結合 Omniverse、Isaac Sim、Isaac Lab,可輕鬆對接 GR00T Mimic pipeline,甚至是 GR00T VLA training flow。

j-mex Omniverse Starter kits 運作架構

Architecture

賦能多元化的機器人應用

banner 08
遠端操作
Teleoperation
適用於危險環境作業、高難度精細操作等場景,確保操作員的安全與任務的精準執行。
banner 01
具身 AI 訓練
Embodied AI Training
快速生成 VLA (Vision-Language-Action) 訓練與模仿學習 (Imitation Learning) 所需的高品質、高保真度示範數據。
banner 09
工業數位孿生
Industrial Digital Twin
結合 Teleoperation 與 Isaac Sim/Lab,在虛擬環境中即時同步真實機器人狀態,實現產線的數位孿生監控、操作驗證與流程優化,降低實體測試風險與成本。
banner 05
協作與示教
Learning from Demonstration
使機器手臂 (Manipulator) 或協作機械手臂 (Cobot Arms) 能夠透過直接的人體動作示範進行直覺自然的學習,從而大幅簡化程式設計的複雜性。

從捕捉到自主運行:機器人訓練四步驟

使用 j-mex Teleoperation Starter Kit 訓練機器人的四個核心步驟:

num 1

動作數據捕捉 / Motion Data Capture

穿著 V100-R 套裝的人類操作員即時控制機器人的運動,捕捉精確的運動數據。
num 2

感測器數據收集 / Sensor Data Collection

機器人在遠端操作過程中收集感測器數據,以增強其對運動和環境的理解。
num 3

深度學習 / Policy Learning

結合運動和感測器數據進行深度學習,改進機器人的運動模式。
num 4

自主執行 / Autonomous Execution

機器人利用學習到的策略,在各種條件下自主執行學習動作。

FAQ 常見問題

A: 一般 Mocap 系統輸出的是人類骨架數據,而 j-mex Teleoperation Starter Kit 包含獨家的「Motion Retargeting」演算法,能直接輸出機器人可處理的關節活動訊號 (orientation and motion) 並透過 ROS2 協定送出,無需額外開發轉換工具。
A: 預設支援數款主流人形機器人 (Humanoid) 與協作手臂 (Cobot Arm),並提供骨架拓樸切換功能,亦可匯入客製化 Robot URDF。
A: 是的,j-mex 是 NVIDIA Omniverse Ready Partners,j-mex Teleoperation Starter Kit 能將動作即時串接至 Isaac Sim/Lab,除了控制模擬外,也能結合 GR00T Mimic pipeline 或 VLA training flow。

準備好釋放人形機器人和具身人工智慧的潛力了嗎?

立即聯繫我們,加速您的機器人與 AI 專案開發。
返回頂端