2 月 10 日,以“具身原生”為主題的原力靈機技術開放日在北京中關村展示中心舉行。在這場被稱為“最硬核的具身產品發(fā)布會”上,原力靈機一舉發(fā)布三大核心產品:全球首個具身原生大模型 DM0、具身原生開發(fā)框架 Dexbotic 2.0、以及具身原生應用量產工作流 DFOL。
“2026 年不是具身智能的元年,而是具身原生的元年?!痹`機CEO唐文斌在現(xiàn)場表示:“過去大家在爭論用哪個大模型來改,我們直接跳出這個問題——為什么要改?為什么不從第一行代碼就為機器人而寫?”

全球首個具身原生大模型 DM0,2.4B 參數(shù)量登頂全球真機評測
原力靈機認為,不僅僅是一個“能在機器人上運行的大模型”,而是一個“智能本質和形成機制都根植于物理交互的新AI范式”。
基于此,原力靈機在業(yè)內首次提出“具身原生”概念:具身智能從誕生之初就需立足真實世界,聚焦“復雜環(huán)境中精準完成人類任務”,并發(fā)布全球首個具身大模型 DM0。
DM0 具有兩大優(yōu)勢:一是從0開始訓練的具身原生大模型,聯(lián)合階躍星辰聯(lián)合訓練,除了深度融合多模態(tài)互聯(lián)網信息外,還涵蓋駕駛行為數(shù)據(jù)、機器人操作、導航等具身場景特有的多傳感數(shù)據(jù)。二是 DM0 沒有把模型限制在單一硬件或特定場景,而是在預訓練階段系統(tǒng)混合抓取、導航、全身控制三類核心任務,并覆蓋 UR、Franka、ARX、UMI、Aloha、R1-Lite、Realman、DOS-W1 等8種差異顯著的機型,獲得強跨機型的泛化與遷移能力。
DM0 僅 2.4B 參數(shù)量,卻實現(xiàn)了業(yè)內最高的智能密度,尤其在精細操作場景中表現(xiàn)突出。不同于市面上多數(shù) VLA 模型僅有 224-384 像素的輸入分辨率,DM0 專屬 768×768 高分辨率設計,實時推理延遲僅 60ms,在工業(yè)級精細作業(yè)中表現(xiàn)優(yōu)異。
DM0首創(chuàng)廣義動作解鎖復雜任務。DM0構建空間推理思維鏈,把環(huán)境感知、任務理解、運動規(guī)劃與精細執(zhí)行串成閉環(huán),使模型能夠在復雜真實場景中穩(wěn)定完成高精度操作,實現(xiàn)機器人的動作不局限在手上,拍照和發(fā)送指令一樣行。
在 RoboChallage 真機評測中,DM0 獲得單任務與多任務雙項第一,目前位居榜單全球第一。為推動產業(yè)協(xié)同,原力靈機宣布DM0全面開源,開發(fā)者可在消費級顯卡上便捷微調、二次開發(fā),助力科研工作者搭建專屬應用、訓練自有模型及產品。
夯實具身基礎設施,Dexbotic 2.0 打造具身智能的 PyTorch
基礎設施是技術迭代效率的根本,也是一家AI公司真正的競爭力,原力靈機重磅發(fā)布全球首個具身原生開發(fā)框架Dexbotic 2.0。原力靈機合伙人汪天才表示,"PyTorch讓每個研究者都能快速驗證想法,Dexbotic 2.0要做的是同樣的事——讓每個開發(fā)者都能用樂高式的方式搭建自己的具身應用。"
相比去年發(fā)布的1.0版本,Dexbotic2.0實現(xiàn)了具身原生的全面升級,具備五大核心優(yōu)勢:模塊化架構,將具身智能系統(tǒng)拆成三塊可自由組合的“樂高模塊”,V(Vision encoder)、L(LLM)、A(Action Expert)模可以獨立升級、替換和混搭,便于快速試驗新模型,并適配不同硬件和任務場景。
同時全面支持多源數(shù)據(jù)混合訓練,用同一套訓練過程,讓模型同步學會“看懂世界”和“動手操作”;此外,Dexbotic 2.0還實現(xiàn)統(tǒng)一具身操作與導航、統(tǒng)一模仿學習與強化學習、標準化具身開發(fā)全流程,從“數(shù)據(jù)—訓練—評測—硬件”四個環(huán)節(jié)形成閉環(huán)。
目前,Dexbotic 2.0已經服務數(shù)十家機構,包括清華、北大、普林斯頓、帝國理工等知名企業(yè),以及騰訊、北京具身智能機器人創(chuàng)新中心等知名企業(yè),覆蓋超千位研發(fā)者。
正如 PyTorch 曾為深度學習社區(qū)提供統(tǒng)一、開放的基礎設施,加速整個領域的繁榮,原力靈機聯(lián)合清華大學、無問芯穹,共同宣布打造具身智能的 PyTorch,Dexbotic 2.0與強化學習框架 RLinf 達成戰(zhàn)略合作,旨在降低開發(fā)門檻,讓研究者與開發(fā)者專注于算法創(chuàng)新與場景突破。
規(guī)?;涞兀浩平夤こ掏袋c,DFOL解鎖具身應用量產工作流
在夯實具身原生技術底座、打造基礎設施降低開發(fā)門檻的基礎上,原力靈機進一步推動機器人走進工廠,實現(xiàn)具身規(guī)?;瘓鼍奥涞?,原力靈機發(fā)布具身應用量產工作流 DFOL(Distributed Field Online Learning),核心是通過“硬件通用+模型智能”的模式,使機器人既能保持較高效率與確定性,又擁有接近人類的靈活性和適應性。
DFOL 關鍵創(chuàng)新在于數(shù)據(jù)回流機制:現(xiàn)場產生的訓練片段(episode)與負樣本塊(negative chunk)實時回傳云端,形成“云端訓練-現(xiàn)場執(zhí)行-數(shù)據(jù)回流-模型更新”的持續(xù)進化閉環(huán),使系統(tǒng)能夠在真實工作環(huán)境中不斷自我改進,實現(xiàn)柔性生產力的持續(xù)優(yōu)化。這不僅是一次技術升級,更是創(chuàng)造真實商業(yè)價值的關鍵一躍,有利于打破非標自動化與人工的邊界,推動物理智能真正走向規(guī)模化和普惠化。
從 DM0 打破行業(yè)“改模型”的路徑依賴、以 2.4B 參數(shù)量登頂全球真機評測榜首,到 Dexbotic 2.0 聯(lián)合 RLinf 準備扛起具身智能的“PyTorch”大旗、破解研發(fā)壁壘,再到 DFOL 打通工程化難題、變現(xiàn)技術落地閉環(huán),原力靈機拋出的“三枚炸彈”,對具身智能產業(yè)進行全方位重構。