《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > OpenAI大模型上身機器人,,原速演示炸場!

OpenAI大模型上身機器人,,原速演示炸場!

2024-03-14
來源:網(wǎng)易科技

OpenAI大模型加持的機器人,,深夜來襲,!

名曰Figure 01,它能聽會說,,動作靈活,。

能和人類描述眼前看到的一切:

我在桌子上看到了一個紅色的蘋果,瀝水架上面還有幾個盤子和一個杯子,;然后你站在附近,,手放在桌子上。

聽到人類說“想吃東西”,,就馬上遞過去蘋果,。

而且對于自己做的事有清楚認知,給蘋果是因為這是桌上唯一能吃的東西,。

還順便把東西整理,,能同時搞定兩種任務。

最關鍵的是,,這些展示都沒有加速,,機器人本來的動作就這么迅速。

接下來,,我們繼續(xù)來看下Figure 01的細節(jié),。

OpenAI視覺語言大模型加持

根據(jù)創(chuàng)始人的介紹,F(xiàn)igure 01通過端到端神經(jīng)網(wǎng)絡,,可以和人類自如對話,。

基于OpenAI提供的視覺理解和語言理解能力,它能完成快速,、簡單,、靈巧的動作。

模型只說是一個視覺語言大模型,,是否為GPT-4V不得而知,。

它還能規(guī)劃動作、有短期記憶能力、用語言解釋它的推理過程,。

1.png

如對話里說“你能把它們放在那里嗎,?”

“它們”、“那里”這種模糊表述的理解,,就體現(xiàn)了機器人的短期記憶能力,。

它使用了OpenAI訓練的視覺語言模型,機器人攝像頭會以10Hz拍下畫面,,然后神經(jīng)網(wǎng)絡將以200Hz輸出24自由度動作(手腕+手指關節(jié)角度)。

具體分工上,,機器人的策略也很像人類,。

復雜動作交給AI大模型,預訓練模型會對圖像和文本進行常識推理,,給出動作計劃,;

簡單動作如抓起塑料袋(抓哪里都可以),機器人基于已學習的視覺-動作執(zhí)行策略,,可以做出一些“下意識”的快速反應行動,。

同時全身控制器會負責保持機身平衡、運動穩(wěn)定,。

除了最先進的AI模型,,F(xiàn)igure 01背后公司——Figure的創(chuàng)始人兼CEO還在推文中提到,F(xiàn)igure方面整合了機器人的所有關鍵組成,。

包括電機,、中間件操作系統(tǒng)、傳感器,、機械結構等,,均由Figure工程師設計。

據(jù)了解,,這家機器人初創(chuàng)公司在2周前才正式宣布和OpenAI的合作,,但才13天后就帶來如此重磅成果。不少人都開始期待后續(xù)合作了,。

由此,,具身智能領域又有一顆新星走到了聚光燈下。

“將人形機器人帶進生活”

說到Figure,,這家公司創(chuàng)立于2022年,,正如前文所言,再次引爆外界關注,,就在十幾天前——

官宣在新一輪融資中籌集6.75億美元,,估值沖到26億美元,投資方幾乎要集齊半個硅谷,包括微軟,、OpenAI,、英偉達和亞馬遜創(chuàng)始人貝佐斯等等。

更重要的是,,OpenAI同時公開了與Figure更進一步合作的計劃:將多模態(tài)大模型的能力擴展到機器人的感知,、推理和交互上,“開發(fā)能夠取代人類進行體力勞動的人形機器人”,。

用現(xiàn)在最熱的科技詞匯來說,,就是要一起搞具身智能。


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章,、圖片,、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者,。如涉及作品內(nèi)容,、版權和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。