欧美人与禽2O2O性论交,秋霞免费视频,国产美女视频免费观看网址,国产成人亚洲综合网色欲网

機(jī)器姬公司推出針對科研和教育市場的家用具身智能機(jī)器人研發(fā)平臺

▍機(jī)器姬公司發(fā)展時(shí)間軸:

  • 2023年12月27日

由專注于具身智能領(lǐng)域的行業(yè)知名技術(shù)專家和科學(xué)家劉智勇領(lǐng)銜,機(jī)器姬項(xiàng)目在北京五道口正式成立。

  • 2024年2月25日

機(jī)器姬公司推出的文生行動(TEXT TO MOTION)推理智能體,展示了該具身智能體(Agent)在長周期任務(wù)規(guī)劃以及移動、抓取等基礎(chǔ)元操作方面的能力。

  • 2024年3月2日

機(jī)器姬公司首先推出面向科研和教育市場可銷售的家用機(jī)器人本體,填補(bǔ)了國內(nèi)具身智能領(lǐng)域家用類型機(jī)器人的空白。隨即開始了產(chǎn)品的公開銷售。

▍機(jī)器姬項(xiàng)目的成立與發(fā)展,填補(bǔ)家用機(jī)器人研發(fā)平臺的空白

機(jī)器姬項(xiàng)目的成立和發(fā)展,這標(biāo)志著中國具身智能領(lǐng)域的一個(gè)重要發(fā)展階段。由具身智能方向技術(shù)專家和科學(xué)家劉智勇領(lǐng)銜的團(tuán)隊(duì)不僅成功推出了具有長周期任務(wù)規(guī)劃能力和基礎(chǔ)操作能力的文生行動推理智能體。同時(shí),他們還針對科研和教育市場推出了家用機(jī)器人本體科研平臺,旨在為高校和研究機(jī)構(gòu)提供一個(gè)開放的研發(fā)平臺,以促進(jìn)具身智能領(lǐng)域的科學(xué)研究和教學(xué)。這顯著填補(bǔ)了國內(nèi)在該領(lǐng)域的空白,并為機(jī)器姬公司未來的發(fā)展奠定了堅(jiān)實(shí)的基礎(chǔ)。

▍市場策略與產(chǎn)品規(guī)劃,首先面向高等教育和科研機(jī)構(gòu)的具身智能研究

機(jī)器姬公司采用了清晰的分階段市場策略:首階段,推出面向高等教育和科研機(jī)構(gòu)的機(jī)器人科研平臺,滿足具身智能機(jī)器人在科研領(lǐng)域的需求;第二階段是針對生活時(shí)間較少或工作時(shí)間較多的年輕人家庭推出的全屋清潔機(jī)器人產(chǎn)品,提升家庭生活品質(zhì);第三階段是面向每個(gè)家庭的家務(wù)機(jī)器人產(chǎn)品,使具身智能機(jī)器人成為家庭生活中不可或缺的一部分。該策略不僅反映了機(jī)器姬公司對市場需求的深入洞察,也開拓了具身智能技術(shù)在日常生活應(yīng)用中的新視野。

機(jī)器姬公司推出針對科研和教育市場的家用具身智能機(jī)器人研發(fā)平臺

機(jī)器姬家用機(jī)器人研發(fā)平臺本體

▍硬件設(shè)計(jì),六軸多功能機(jī)械臂、夾爪和圓形底盤的標(biāo)準(zhǔn)方案

在硬件方面,作為領(lǐng)先的具身智能家用機(jī)器人研發(fā)平臺,機(jī)器姬·畢玲采用了高度集成化設(shè)計(jì),包括先進(jìn)的傳感器系統(tǒng)、多功能機(jī)械臂以及靈活的移動底盤,具備適應(yīng)家庭環(huán)境的原地專向能力和機(jī)動活動能力,確保有效促進(jìn)家用機(jī)器人技術(shù)的開發(fā)與創(chuàng)新。六軸多功能機(jī)械臂配合高精度的機(jī)械夾爪,使機(jī)器人能夠執(zhí)行精細(xì)的抓取和搬運(yùn)任務(wù)。同時(shí),先進(jìn)的傳感器系統(tǒng),如英特爾RGB-D視覺傳感器和單線激光雷達(dá),為機(jī)器人提供了豐富的環(huán)境信息,確保其在復(fù)雜環(huán)境中的安全和高效導(dǎo)航。

▍軟件平臺,視覺語言模型、移動導(dǎo)航和抓取技術(shù)的基礎(chǔ)集成

在軟件方面,機(jī)器姬公司推出的家用具身智能機(jī)器人研發(fā)平臺,旨在為科研和教育界提供一個(gè)高效、便捷的實(shí)驗(yàn)和開發(fā)工具。為了加速科研創(chuàng)意的快速實(shí)現(xiàn)并避免在項(xiàng)目開發(fā)中的重復(fù)勞動,針對具身感知、具身規(guī)劃和具身規(guī)劃的常用基礎(chǔ)模塊,該平臺預(yù)先集成了以下幾個(gè)關(guān)鍵功能:

首先,該平臺整合了最先進(jìn)的開源視覺語言模型,包括OpenAI的CLIP(Contrastive Language–Image Pre-training)和CogVLM。CLIP通過預(yù)訓(xùn)練一個(gè)大規(guī)模的圖像和文本對來理解圖像內(nèi)容。CLIP的一個(gè)關(guān)鍵優(yōu)勢是它對新任務(wù)表現(xiàn)出了令人印象深刻的零樣本(zero-shot)能力。CogVLM是一個(gè)先進(jìn)的中國的開源視覺語言模型(VLM),它旨在橋接預(yù)訓(xùn)練語言模型和圖像編碼器之間的差距,通過整合視覺和語言信息來提升模型對跨模態(tài)內(nèi)容的理解能力。在家用機(jī)器人具身推理系統(tǒng)中,通過視覺語言模型結(jié)合視覺(圖像)和語言(文本)信息來理解和生成內(nèi)容。這些模型能夠執(zhí)行多種任務(wù),如圖像標(biāo)注、視覺問答等。

機(jī)器姬公司推出針對科研和教育市場的家用具身智能機(jī)器人研發(fā)平臺

機(jī)器姬家用機(jī)器人研發(fā)平臺在家場景

其次,集成了移動導(dǎo)航的基礎(chǔ)元操作能力,如GMapping框架,能夠通過激光雷達(dá)數(shù)據(jù)生成精確的二維環(huán)境地圖,提高機(jī)器人在復(fù)雜環(huán)境中的定位和導(dǎo)航能力。它能夠處理來自激光雷達(dá)(LIDAR)等傳感器的距離測量數(shù)據(jù),根據(jù)這些數(shù)據(jù)和機(jī)器人的移動信息來構(gòu)建詳細(xì)的環(huán)境地圖。同時(shí),集成啟發(fā)式建圖框架RTAB-Map,RTAB-Map(Real-Time Appearance-Based Mapping)是一個(gè)專為長期、大范圍環(huán)境下的實(shí)時(shí)定位和地圖構(gòu)建(SLAM)設(shè)計(jì)的開源庫。

再者,集成抓取的基礎(chǔ)元操作能力,包括經(jīng)典的GGCNN(Generative Grasping Convolutional Neural Network,生成式抓取卷積神經(jīng)網(wǎng)絡(luò)),GGCNN是一種輕量級的卷積神經(jīng)網(wǎng)絡(luò),能預(yù)測相應(yīng)的抓取角度和寬度,為機(jī)械臂提供了執(zhí)行抓取所需的全部信息。同時(shí),集成基于強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)的在Omniverse模擬器中的預(yù)訓(xùn)練流程和機(jī)器人本地處理器上的部署流程,能夠使機(jī)械臂通過與環(huán)境的交互學(xué)習(xí)如何完成復(fù)雜的抓取任務(wù)。

通過集成CLIP和CogVLM視覺語言模型,機(jī)器姬的平臺能夠理解并處理圖像和文本信息之間的復(fù)雜關(guān)系,使機(jī)器人在沒有明確指令的情況下也能自主完成任務(wù)。此外,GMapping和RTAB-Map框架使機(jī)器人能夠在不熟悉的環(huán)境中進(jìn)行精確的自我定位和導(dǎo)航,而GGCNN和基于強(qiáng)化學(xué)習(xí)的抓取技術(shù)則賦予了機(jī)器人靈活而準(zhǔn)確的物體操作能力。機(jī)器姬的家用具身智能機(jī)器人研發(fā)平臺已經(jīng)內(nèi)嵌了具身智能機(jī)器人的基礎(chǔ)學(xué)習(xí)框架。

機(jī)器姬公司推出針對科研和教育市場的家用具身智能機(jī)器人研發(fā)平臺

機(jī)器姬家用機(jī)器人文生行動推理智能體問世

▍結(jié)語與未來

通過這種面向高校和科研機(jī)構(gòu)的機(jī)器人研發(fā)平臺,機(jī)器姬公司不僅填補(bǔ)了國內(nèi)具身智能領(lǐng)域家用類型機(jī)器人的空白,也為具身智能在學(xué)術(shù)領(lǐng)域的發(fā)展和應(yīng)用奠定了堅(jiān)實(shí)的基礎(chǔ)。

相關(guān)新聞

聯(lián)系我們
聯(lián)系我們
公眾號
公眾號
在線咨詢
分享本頁
返回頂部