【ZiDongHua 之“創(chuàng)新自化成”收錄關(guān)鍵詞: 人形機器人 大模型 元宇宙 智能制造
  
  重磅︱國地中心即將發(fā)布7B龍躍大模型(MindLoongGPT),開啟生成式機器人運動控制時代
  
  2025年5月29日,由國家地方共建人形機器人創(chuàng)新中心(以下簡稱“國地中心”)和上海張江(集團)有限公司共同主辦的2025張江具身智能開發(fā)者大會暨張江人形機器人創(chuàng)新創(chuàng)業(yè)大賽將在上海浦東新區(qū)盛大舉行。
  
  本次活動將匯集200余家人形機器人、具身智能和產(chǎn)業(yè)鏈頭部企業(yè),吸引1000余位知名院士、專家、企業(yè)領(lǐng)袖及開發(fā)者,共同探討人形機器人產(chǎn)業(yè)的技術(shù)突破與商業(yè)落地路徑。這是一場真正意義上的行業(yè)頂級盛會,以“峰會+大賽+展覽”三位一體的模式,全方位展示人形機器人技術(shù)與產(chǎn)業(yè)的最新進展。
  
  在本次大會上,國地中心將聯(lián)合復旦大學正式發(fā)布全球首款生成式人形機器人運動大模型—— “龍躍”(MindLoongGPT),此舉將標志著我國在智能體運動控制領(lǐng)域邁入全球領(lǐng)先行列。
  
  “龍躍”MindLoongGPT:生成式機器人運動大模型的革命性突破
  
  ■ 從實驗室到產(chǎn)業(yè)應(yīng)用,重新定義人機交互
  
  人形機器人如何像人類一樣自然運動?如何通過語言指令讓機器人理解并執(zhí)行復雜動作?這一直是行業(yè)亟待突破的技術(shù)瓶頸。國地中心聯(lián)合復旦大學未來信息創(chuàng)新學院研發(fā)的龍躍MindLoongGPT大模型,以“自然語言驅(qū)動”為核心,構(gòu)建了從多模態(tài)輸入到高保真動作生成的完整閉環(huán),徹底顛覆傳統(tǒng)運動控制范式。
  
  ■ 四大核心技術(shù)優(yōu)勢,引領(lǐng)行業(yè)標桿
  
  1. 多模態(tài)交互,低門檻驅(qū)動
  
  MindLoongGPT支持文本、語音、圖像等多模態(tài)輸入,用戶只需說出“揮手致意”或上傳一段參考視頻,模型即可自動解析語義并生成連貫動作。傳統(tǒng)方法依賴專業(yè)參數(shù)調(diào)整的桎梏被打破,真正實現(xiàn)“人人可用”。
  
  2. 擬真度與時序一致性雙突破
  
  通過將人體動作視為“時序語言”,MindLoongGPT對動作序列逐幀建模,精準捕捉動作間的連續(xù)性,解決了長序列生成中的僵硬、跳躍問題。生成的跑步、舞蹈等動作不僅流暢自然,更保留真實人體的慣性節(jié)奏。
  
  3. 結(jié)構(gòu)生成與細節(jié)優(yōu)化并重
  
  模型采用分階段生成策略,從全局姿態(tài)到局部關(guān)節(jié)角度均實現(xiàn)毫米級精度控制。無論是手指微操還是全身騰躍,細節(jié)表現(xiàn)力媲美真人。
  
  4. 輕量化設(shè)計,賦能廣泛場景
  
  在保證性能的前提下,MindLoongGPT模型體積壓縮至同類型產(chǎn)品的1/3,可在教育機器人、智能穿戴設(shè)備等嵌入式平臺實時運行,為產(chǎn)業(yè)落地鋪平道路。
  
  MindLoongGPT的差異化競爭力:為什么它是“不可替代”的?
  
  ■ 技術(shù)為骨,應(yīng)用為翼,打造全鏈條解決方案
  
  當前市場中的動作生成模型往往存在兩大痛點:一是依賴高算力硬件,難以低成本部署;二是生成結(jié)果機械呆板,缺乏可控性。
  
  MindLoongGPT通過三大創(chuàng)新設(shè)計,構(gòu)建了獨特的市場護城河:
  
  1. 自然語言驅(qū)動,開啟交互新范式
  
  用戶無需學習專業(yè)術(shù)語或操作復雜軟件,僅需像與人類對話一樣發(fā)出指令,例如“以優(yōu)雅的姿勢遞上一杯咖啡”,MindLoongGPT即可結(jié)合語義理解生成對應(yīng)動作,并支持通過追加指令實時調(diào)整細節(jié)。這一能力在教育、服務(wù)機器人領(lǐng)域具有顛覆性意義。
 
  
  語音到文本的轉(zhuǎn)化
  
  2. 生成+編輯雙模式,滿足定制化需求
  
  MindLoongGPT不僅支持一鍵生成動作,還開放了風格、節(jié)奏、速度等參數(shù)接口。企業(yè)用戶可基于生成的初始動作進行二次創(chuàng)作,例如將“步行”調(diào)整為“卡通蹦跳”或“機械步態(tài)”,極大拓展了模型的適用場景。
 
  
  動作生成
  
  3. 全鏈條部署方案,打通最后一公里
  
  從動作生成到實機部署,MindLoongGPT提供完整的工具鏈支持:
  
  模型重定向技術(shù):通過優(yōu)化的retarget算法,實現(xiàn)人體模型與不同機器人URDF結(jié)構(gòu)的快速適配,解決硬件異構(gòu)難題;
 
  
  模型重定向
  
  上位控制軟件集成:支持主流機器人操作系統(tǒng)(ROS、V-REP等),生成動作可直接導入實機測試,部署效率提升80%。
  
  動作部署
  
  4. 大模型與小模型聯(lián)合,高效實現(xiàn)各種復雜動作與舞蹈特技:
  
  “龍躍”MindLoongGPT:具有7B的模型參數(shù)大小,支持
  
  text2motion, motion2text, motion2motion
  
  多任務(wù),生成更豐富的動作。
  
  通過“龍躍”MindLoongGPT生成特技動作運動軌跡,作為部署的全身跟蹤小模型的輸入目標觀測,從而可以在青龍上實現(xiàn)豐富的全身動作。
  
  開源全身運動數(shù)據(jù)集與全工具鏈同步發(fā)布
  
  ■ 開源全身運動數(shù)據(jù)集
  
  國地中心擁有5000平米訓練場,集采集,測試,訓練的功能于一體。102臺數(shù)采機器人,可支撐每天3萬條機器人數(shù)據(jù)采集,地面真值測試,人體數(shù)據(jù)采集,仿生數(shù)據(jù)采集。
  
  國地中心發(fā)布開源全身運動數(shù)據(jù)集,形成業(yè)內(nèi)領(lǐng)先的人形動作數(shù)據(jù)庫,包含10000+重映射后的高質(zhì)量動作條數(shù),以及包括原子動作,連續(xù)動作,套路動作等不同類型的動作,其主要數(shù)據(jù)來源如下表所示:
  
  ■ 開源人體動作映射全棧工具鏈
  
  SMPL是一套描述人體動作的標準格式和映射算法,用于參數(shù)化表達動作和人體體型,其優(yōu)勢在于將體型的不同納入到動作映射中。
  
  通過優(yōu)化青龍機器人的體型參數(shù) β 使得調(diào)整后的人體模型關(guān)節(jié)位置能夠更為貼近青龍機器人。體型參數(shù)匹配可以提升后續(xù)重定向的動作跟蹤精度。
  
  從數(shù)據(jù)集中收集SMPL格式的動作參數(shù),并使用匹配得到的青龍機器人體型參數(shù) β 將數(shù)據(jù)集的動作參數(shù)θ 映射為機器人各關(guān)節(jié)目標位置。
  
  構(gòu)造以最小化機器人各關(guān)節(jié)位置誤差以及連續(xù)性誤差為優(yōu)化目標的優(yōu)化問題,求解最優(yōu)化問題得到機器人的最優(yōu)關(guān)節(jié)角度。
  
  國地中心的使命:以技術(shù)突破推動產(chǎn)業(yè)升級
  
  ■ 從“遙控器時代”到“生成式時代”的跨越
  
  國地中心作為國家工信部與上海市共同揭牌成立的行業(yè)平臺,始終致力于攻克人形機器人共性技術(shù)難題。此次推出MindLoongGPT,正是中心技術(shù)攻堅的里程碑式成果。
  
  ■ 戰(zhàn)略意義:重塑人機協(xié)作生態(tài)
  
  降低開發(fā)者門檻:中小型企業(yè)甚至個人開發(fā)者均可利用MindLoongGPT快速開發(fā)機器人應(yīng)用,無需組建專業(yè)運動控制團隊;
  
  賦能新興場景:從家庭陪護、醫(yī)療康復到工業(yè)柔性裝配,MindLoongGPT的高適配性將加速人形機器人進入千行百業(yè);
  
  搶占國際制高點:我國在生成式AI與機器人融合領(lǐng)域首次實現(xiàn)系統(tǒng)性突破,為全球智能體技術(shù)發(fā)展提供“中國方案”。
  
  ■ 龍躍大模型發(fā)布在即:共建開放生態(tài)
  
  國地中心宣布,將在大會現(xiàn)場開放MindLoongGPT的開發(fā)者測試版本,并聯(lián)合張江科學城打造“人形機器人創(chuàng)新應(yīng)用孵化基地”,為合作伙伴提供技術(shù)賦能、數(shù)據(jù)共享與算力支持。首批合作企業(yè)包括多家全球500強科技公司與頂尖高校研究院,共同探索人形機器人在元宇宙、智能制造等領(lǐng)域的深度融合。
  
  5月29日,張江見!
  
  2025張江具身智能開發(fā)者大會不僅是技術(shù)的秀場,更是產(chǎn)業(yè)的盛宴。屆時,國地中心與張江集團將攜手院士專家、行業(yè)領(lǐng)袖與開發(fā)者,展開多場技術(shù)研討、實機演示與生態(tài)合作簽約。
  
  我們誠邀全球開發(fā)者與創(chuàng)新者共聚張江,見證生成式機器人運動控制的劃時代變革,攜手開啟人機共生的智能未來!
  
  大會詳情
  
  時間:2025年5月29日全天
  
  地點:上海張江科學會堂