對于自動駕駛的視覺系統(tǒng)而言,“看”到路人是一個基礎工作,更重要的是,能否能像人類一樣,判斷出路人下一個動作將是什么。來自密歇根大學的團隊,便研究了一種改進算法,讓自動駕駛視覺系統(tǒng)能夠?qū)β啡说男袨檫M行預測。
視覺系統(tǒng),不僅是用來看的,還能預測“未來”!
密歇根大學(University of Michigan)向來以自動駕駛汽車技術聞名,最近,他們又有了大動作——研究一種改進的算法,來預測路上行人的動作。
這種算法不僅考慮了行人在做什么,還考慮了他們是如何做的。這種肢體語言對于預測一個人接下來要做什么是至關重要的。
密歇根大學團隊將研究成果發(fā)布在了Arxiv及IEEE中,有興趣的讀者可以訪問上方或者文末鏈接進行詳讀。
本文提出了一種基于生物力學的遞歸神經(jīng)網(wǎng)絡(Bio-LSTM),該網(wǎng)絡可以在全局坐標系下預測行人的位置和三維關節(jié)體位姿,該網(wǎng)絡能夠同時預測多個行人的姿態(tài)和全局位置,以及距離攝像機45米以內(nèi)的行人(城市交叉口規(guī)模)。
“看”到更細節(jié)的動作,預測路人行動
關注路上行人并預測他們將要做什么是任何自動駕駛視覺系統(tǒng)的重要組成部分。
讓自動駕駛車輛理解路上行人的存在,并分析一些細節(jié)信息,會對車輛一下步如何操作產(chǎn)生巨大的影響。
有些公司宣稱其自動駕駛車輛的視覺系統(tǒng),在這樣或那樣的范圍/條件下可以看到并標記“人”,但目前很少人提出,可以看到并標記像“手勢”或“姿勢”這樣更為細節(jié)的部分。
這種視覺算法可以(盡管現(xiàn)在不太可能)像識別一個人并觀察他在幾幀內(nèi)移動了多少像素那樣簡單,然后從那個節(jié)點進行推斷。但人類的運動自然要比這復雜得多。
UM的新系統(tǒng)使用激光雷達和立體攝像機系統(tǒng),不僅可以估計一個人的軌跡,還可以估計他們的姿勢和步態(tài):
姿勢可以表明一個人是否在靠近或遠離汽車、是否在使用拐杖、是否在彎腰接電話等等;
步態(tài)不僅表示速度,也表示意圖。
例如,路人將頭轉(zhuǎn)向他們肩膀方向時,他們可能接下來會轉(zhuǎn)身,或者只是看了一眼肩膀然后繼續(xù)向前走;路人伸出手臂,他們可能在向某人(或車輛)發(fā)出停車信號。
這些額外的數(shù)據(jù)將有助于視覺系統(tǒng)對動作的預測,使得導航規(guī)劃和防止意外事件更加完備。
更重要的是,它只需要幾個框架就可以很好地完成工作——可能只需要包括單步和手臂的擺動。
這就足以做出一個輕松擊敗簡單模型的預測,這是一種關鍵的性能衡量指標。
來源:新智元
本文地址:http://ewshbmdt.cn/news/jishu/87147
以上內(nèi)容轉(zhuǎn)載自新智元,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(ewshbmdt.cn)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權請聯(lián)系admin#d1ev.com(#替換成@)刪除。