蓋世汽車訊 近年來,機(jī)器人專家和計算機(jī)科學(xué)家一直在開發(fā)范圍廣泛的系統(tǒng),以檢測環(huán)境中的物體并進(jìn)行相應(yīng)的導(dǎo)航。而這些系統(tǒng)中的大多數(shù)都是基于在大型圖像數(shù)據(jù)集上訓(xùn)練的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法構(gòu)建。雖然現(xiàn)在有大量用于訓(xùn)練機(jī)器學(xué)習(xí)模型的圖像數(shù)據(jù)集,但包含雷達(dá)傳感器收集數(shù)據(jù)的數(shù)據(jù)集仍然很少,盡管雷達(dá)相對于光學(xué)傳感器具有顯著優(yōu)勢。此外,許多可用的開源雷達(dá)數(shù)據(jù)集很難適用于多種用戶應(yīng)用程序。
據(jù)外媒報道,亞利桑那大學(xué)(University of Arizona)的研究人員最近開發(fā)出一種新方法,可以自動生成包含標(biāo)記雷達(dá)數(shù)據(jù)攝像頭圖像的數(shù)據(jù)集。該方法使用攝像頭圖像流上(又稱YOLO)的高精度目標(biāo)檢測算法和關(guān)聯(lián)技術(shù)(又稱匈牙利算法)來標(biāo)記雷達(dá)點云。
(圖片來源:Sengupta)
亞利桑那大學(xué)的博士生和此項研究的主要研究員Arindam Sengupta表示:“使用雷達(dá)的深度學(xué)習(xí)應(yīng)用需要大量標(biāo)記的訓(xùn)練數(shù)據(jù),而標(biāo)記雷達(dá)數(shù)據(jù)并非易事。該方法主要通過手動將其與并行獲得的圖像數(shù)據(jù)流進(jìn)行比較來完成,是一個極其耗時且勞動密集型的過程。我們的想法是,如果攝像頭和雷達(dá)在查看同一個物體,那么我們可以利用基于圖像的物體檢測框架(在案例中又稱YOLO)來自動標(biāo)記雷達(dá)數(shù)據(jù),而非手動查看圖像。”
Sengupta及其同事稱該方法的三個特征是協(xié)同校準(zhǔn)、聚類和關(guān)聯(lián)能力。該方法可對雷達(dá)及其攝像頭進(jìn)行共同校準(zhǔn),以確定雷達(dá)檢測到物體的位置使如何根據(jù)攝像頭的數(shù)字像素進(jìn)行轉(zhuǎn)換的。
Sengupta表示:“我們使用基于密度的聚類方案(DBSCAN)來檢測和消除噪聲/雜散雷達(dá)回波;以及將雷達(dá)回波分離成簇以區(qū)分不同的物體;最后,使用幀內(nèi)和幀間匈牙利算法(HA)進(jìn)行關(guān)聯(lián)。該幀內(nèi)HA將YOLO預(yù)測與給定幀內(nèi)的協(xié)同標(biāo)定雷達(dá)簇相關(guān)聯(lián),而幀間HA在連續(xù)幀中關(guān)聯(lián)與同一目標(biāo)相關(guān)的雷達(dá)簇,以便即使在光學(xué)傳感器間歇失效的情況下也能在幀中標(biāo)記雷達(dá)數(shù)據(jù)?!?/p>
未來,該新方法可以幫助自動生成雷達(dá)攝像頭和僅雷達(dá)數(shù)據(jù)集。此外,該團(tuán)隊還探索了基于雷達(dá)攝像頭傳感器融合方法和僅由雷達(dá)收集數(shù)據(jù)的概念驗證分類方案。
Sengupta表示:“我們還建議使用有效的12維雷達(dá)特征向量,結(jié)合空間、多普勒和RCS統(tǒng)計數(shù)據(jù)構(gòu)建,而不是傳統(tǒng)使用點云分布或微多普勒數(shù)據(jù)?!?/p>
最終,Sengupta及其同事的研究可為快速調(diào)查和訓(xùn)練開辟新的可能性,以使用傳感器融合對基于深度學(xué)習(xí)的模型進(jìn)行分類或跟蹤。這些模型可助力提高從自動駕駛汽車到小型機(jī)器人等眾多機(jī)器人系統(tǒng)的性能。
來源:蓋世汽車
作者:劉麗婷
本文地址:http://ewshbmdt.cn/news/jishu/169174
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(ewshbmdt.cn)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。