久久久国产一区二区_国产精品av电影_日韩精品中文字幕一区二区三区_精品一区二区三区免费毛片爱

機械社區

標題: 斯坦福家務機器人,看似全能,實際靠遙控 [打印本頁]

作者: Callejon    時間: 2024-1-8 10:23
標題: 斯坦福家務機器人,看似全能,實際靠遙控
近日,斯坦福華人團隊的Mobile ALOHA“全能家務機器人”在網上爆火,它展示了做飯、鋪床、澆花等多種家務技能,可謂是全復合“保姆人才”。

/ q7 d9 h+ t+ [9 i: x5 @
它能夠煮蝦,可以擦拭桌子上的紅酒,能洗盤子,還可以自動打開電梯。
3 J- {" D$ n6 U/ T+ q" O1 p; j
還可以打開窗簾為窗臺上的花澆水,將衣服放到洗衣機里、撒上洗衣液洗衣。這讓網友直呼機器人時代已來,它難能可貴在“眼里有活兒”。
2 g! l# @% {0 W; F) \
不過,Mobile ALOHA所展示的復雜技能,其實是背后由人遙控操作的。
1月6日清晨,發現網友為Mobile ALOHA所呈現的自主化、智能化能力傾倒后,Mobile ALOHA的兩位研發人員連忙“辟謠”,稱部分動作是機器人自主展示的,部分則由人遙控完成。
- x: d; O' s; r
為了如實呈現機器人的能力,他們還專門放出了Mobile ALOHA在全自動狀態下的“蠢笨”動作合集,稱 “機器人尚未準備好接管世界”。
- B8 `7 [# B9 o' c- w: k
當你以為機器人能絲滑優雅地舉起一杯紅酒時,它只能顫顫巍巍地握住杯子,看著酒杯傾倒碎在地上,將紅酒灑滿桌;

$ R. y3 H: D& ?6 X, e7 d

紅酒灑滿桌

0 W+ M* o/ b. i

表現頗佳時,機器人能熟悉地端起左手顛鍋、右手拿鏟,完成一道菜肴的制作;但多是幾次,原本揮灑自如的鍋鏟就不是對著鐵鍋底部一頓操作,就是在鍋中揮舞但碰不到菜。
; C/ z# r, w" i" X8 G

失敗的炒菜案例

2 Z0 H' e. W4 Z$ K9 \" U4 C0 E

全自動狀態下,它無法有力地控制住一把平底鍋,將鍋端起后,整個平鍋便不可避免地掉落,為了拯救翻到的鐵鍋,守在旁邊的研究人員還被燙傷了;

/ P1 `6 D9 d8 _

倒菜失敗


+ Z/ ^; a3 p& ?& X5 D9 W1 G

甚至一根紅色圓珠筆,Mobile ALOHA也無法拾起。
1 [8 t4 k$ j6 n6 |  S& u8 I

拿記號筆

# L  H' \7 ?, }& `9 Y4 ~

現實和理想還有差距,但Mobile ALOHA所呈現出的完成精細和復雜的任務的運動操作能力,仍值得關注,這讓未來機器人更具有想象空間。

作者: xmdesign    時間: 2024-1-8 10:49
模仿學習(相當是AI圖像識別里的人工拉框標定),
, C( P7 d- h' z' _( @+ M舵機機械臂力不夠&精度不夠,雙視覺給出的位置走不到,手爪缺觸覺感知...
作者: gemiusunyi    時間: 2024-1-8 10:57
這個就是機器人的現狀
/ @7 v, d0 Z% g8 y                                                                                                               
作者: bravo090    時間: 2024-1-8 11:30
他也說成功率是95%    這是AI學習的過程吧
作者: xmdesign    時間: 2024-1-8 11:42
之所以火爆刷出圈,應該是因為不用黃教主“大鏟子”的嘗試,使得眾人眼前一亮,加上開源
作者: 學渣渣    時間: 2024-1-8 12:13
xmdesign 發表于 2024-1-8 11:42; K) ?2 S3 d9 Y' F# Q& y6 }( N
之所以火爆刷出圈,應該是因為不用黃教主“大鏟子”的嘗試,使得眾人眼前一亮,加上開源
9 k- U5 r1 ]7 \. P
華為在發力昇騰系列,能否干翻黃教主?
9 b8 \; g8 ?8 u
作者: 喂我袋鹽    時間: 2024-1-8 19:58
gemiusunyi 發表于 2024-1-8 10:57) T) X' r: U) C; i, h
這個就是機器人的現狀! G8 V" X' _! t
                                                                               ...

6 ]1 `5 p. p' n; Z3 L: \7 bnonono,這是丐版5 ?, X: J5 q  Y0 y# }# v5 _

作者: 喂我袋鹽    時間: 2024-1-8 19:59
xmdesign 發表于 2024-1-8 10:49
; Z* t* J( ?) @: z2 ?模仿學習(相當是AI圖像識別里的人工拉框標定),
! [/ h; l0 l4 `8 e8 K* G+ }舵機機械臂力不夠&精度不夠,雙視覺給出的位置走不到, ...

; F- H1 S  o2 Q3 a& s這玩意最終還是要進化到人形,雙臂吧?# u, j# T4 d) d9 u1 k& _: L

作者: xmdesign    時間: 2024-1-9 08:04
喂我袋鹽 發表于 2024-1-8 19:59
" d4 `' E- k1 |& E這玩意最終還是要進化到人形,雙臂吧?
; A; g0 N0 D, r; E: E
基本是這樣,去掉雙足的人形。如果想優化斯坦福的DEMO,你只要閉上眼睛先靠觸覺模態完成些類似動作,記錄能成功的動作方式,然后再思考如何與視覺模態融合~運動控制底層增加壓感中斷&條件。。。
/ c2 d1 }  [! `$ d! r
; |) l  x# l; _6 Q4 V7 k6 @4 U3 P( o
作者: 紅海星    時間: 2024-2-1 15:38
斯坦福這視頻一出來就能看出來里面水分太大,演示視頻拍攝的視角從來不取機械臂后部,再一個都是10倍以上的速度播放,另外主要是目前這一方向的世界頂級大牛及其團隊從最新發表的論文來看遠沒有達到這種程度。這其實就是具身智能E-AI,但是現狀是不管強化學習還是模仿學習,都學不到很強的操作能力以及較強的泛化能力,也無法脫開實驗訓練環境推廣到一般環境或者新環境中。谷歌2023年初解散了它的機器人項目團隊是有原因的,相比斯坦福那幾個人的小團隊,谷歌更讓人信服,畢竟人家才是具身智能的鼻祖,大名鼎鼎的Transformer算法是人家發表的。




歡迎光臨 機械社區 (http://www.ytsybjq.com/) Powered by Discuz! X3.5