蓋世汽車訊 據(jù)外媒報道,由南開大學(xué)(Nankai University)和上海人工智能實驗室(Shanghai AI Laboratory)等單位組成的研究團隊開發(fā)出可以在同一框架內(nèi)實現(xiàn)二分圖像分割、高分辨率顯著物體檢測和隱蔽物體檢測的計算機視覺技術(shù)。這種新型的雙邊參考框架(BiRefNet)能夠捕捉微小像素特征,并具有廣泛的實際計算機視覺應(yīng)用潛力。該研究成果已發(fā)表在期刊《CAAI人工智能研究》(CAAI Artificial Intelligence Research)上。
圖片來源:《CAAI Artificial Intelligence Research》
在計算機視覺研究中,圖像分割技術(shù)包括將數(shù)字圖像分割成有意義的部分。通過這個過程,圖像更易于分析。隨著高分辨率圖像采集技術(shù)的發(fā)展,科學(xué)家們現(xiàn)在能夠?qū)崿F(xiàn)高度精確的目標(biāo)分割。
這項新技術(shù)被稱為高分辨率二分圖像分割(DIS),三星(Samsung)、Adobe和迪士尼(Disney)等公司現(xiàn)在都在使用這種技術(shù)。然而,目前用于DIS的策略不足以捕捉最精細的特征。為了應(yīng)對高分辨率DIS目前面臨的挑戰(zhàn),該研究團隊開發(fā)出雙邊參考模塊。
該研究團隊通過BiRefNet實現(xiàn)了高精度的高分辨率DIS。南開大學(xué)范登平教授表示:“憑借新開發(fā)的雙邊參考模塊,BiRefNet在高分辨率圖像上顯示出更高的精度,尤其是那些細節(jié)精細的圖像。到目前為止,BiRefNet是用于前景目標(biāo)提取的最佳開源和商用模型。”
來源:第一電動網(wǎng)
作者:蓋世汽車
本文地址:http://ewshbmdt.cn/news/shichang/242715
以上內(nèi)容轉(zhuǎn)載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動網(wǎng)(ewshbmdt.cn)立場。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請聯(lián)系admin#d1ev.com(#替換成@)刪除。