IT之家 9 月 20 日消息,豐田研究院(TRI)利用生成式 AI 在一個(gè)“機(jī)器人幼兒園”中教機(jī)器人如何做早餐,或者至少是做早餐所需的各個(gè)任務(wù)。他們并不需要花費(fèi)數(shù)百小時(shí)的編碼和調(diào)試,而是通過(guò)給機(jī)器人一個(gè)觸覺(jué)感知器,將它們接入一個(gè) AI 模型,然后像教一個(gè)人類一樣,向它們展示如何做。
研究人員表示,觸覺(jué)感知是“一個(gè)關(guān)鍵的推動(dòng)因素”。通過(guò)給機(jī)器人安裝一個(gè)“大而軟的拇指”,模型可以“感受”它正在做的事情,從而獲得更多的信息,這使得一些困難的任務(wù)比僅靠視覺(jué)更容易完成。
該實(shí)驗(yàn)室的靈巧操作經(jīng)理本?伯奇菲爾德(Ben Burchfiel)稱,看到它們與環(huán)境互動(dòng)是“令人興奮的”。首先一個(gè)“老師”會(huì)展示一系列技能,然后在“幾個(gè)小時(shí)內(nèi)”,模型就在后臺(tái)學(xué)習(xí)。他補(bǔ)充說(shuō),“我們經(jīng)常在下午教一個(gè)機(jī)器人,讓它在夜間學(xué)習(xí),然后第二天早上就能看到一個(gè)新的行為。”
研究人員稱,他們?cè)噲D為機(jī)器人創(chuàng)建“大行為模型”(LBMs)。類似于 LLMs 是通過(guò)注意人類寫(xiě)作中的模式來(lái)訓(xùn)練的,豐田的 LBMs 將通過(guò)觀察來(lái)學(xué)習(xí),然后“泛化”,執(zhí)行它們從未被教過(guò)的新技能。
使用這種方法,研究人員說(shuō)他們已經(jīng)訓(xùn)練了 60 多個(gè)具有挑戰(zhàn)性的技能,如“倒液體、使用工具和操縱可變形物體”,他們希望到 2024 年底將這個(gè)數(shù)字提高到 1000。
IT之家注意到,谷歌也在進(jìn)行類似的研究,與豐田研究人員采用的方法類似,他們的機(jī)器人 RT-2 利用自己獲得的經(jīng)驗(yàn)來(lái)推斷如何做事情。理論上,經(jīng)過(guò) AI 訓(xùn)練的機(jī)器人最終可以不需要太多的指令就能執(zhí)行一些任務(wù)。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。