蓋世汽車(chē)訊 自動(dòng)駕駛汽車(chē)必須可以快速、準(zhǔn)確地識(shí)別遇到的物體,包括停在拐角處的送貨卡車(chē)、正在接近十字路口的騎行者等。為此,自動(dòng)駕駛汽車(chē)可能會(huì)使用一個(gè)強(qiáng)大的計(jì)算機(jī)視覺(jué)模型來(lái)對(duì)高分辨率場(chǎng)景圖像中的每個(gè)像素進(jìn)行分類(lèi),從而讓其不會(huì)忽略在低質(zhì)量圖像中可能被遮擋的物體。但是,此種稱(chēng)作語(yǔ)義分割(semantic segmentation)的任務(wù)非常復(fù)雜,當(dāng)圖像分辨率高時(shí),需要進(jìn)行大量的計(jì)算。
據(jù)外媒報(bào)道,美國(guó)麻省理工學(xué)院(MIT)和麻省理工學(xué)院-IBM沃森人工智能實(shí)驗(yàn)室(MIT-IBM Watson AI Lab)及來(lái)自其他地方的研究人員合作研發(fā)了一款更高效的計(jì)算機(jī)視覺(jué)模型,大大降低了上述任務(wù)的計(jì)算復(fù)雜性。該款模型可在車(chē)載計(jì)算機(jī)等硬件資源有限的設(shè)備上實(shí)時(shí)、準(zhǔn)確地進(jìn)行語(yǔ)義分割,使自動(dòng)駕駛汽車(chē)能夠在瞬間做出決策。
EfficientViT模型(圖片來(lái)源:MIT)
現(xiàn)在最先進(jìn)的語(yǔ)義分割模型都可直接學(xué)習(xí)圖像每對(duì)像素之間的交互情況,因此其計(jì)算會(huì)隨著圖像分辨率的增加而呈二次方增長(zhǎng)。因此,雖然此類(lèi)模型非常準(zhǔn)確,但是處理速度太慢,無(wú)法在傳感器或手機(jī)等邊緣設(shè)備上實(shí)時(shí)處理高分辨率圖像。
MIT的研究人員為語(yǔ)義分割模型設(shè)計(jì)了一個(gè)新型構(gòu)件,其能力與此類(lèi)最先進(jìn)模型相同,但是復(fù)雜性只達(dá)到線(xiàn)性計(jì)算,而且實(shí)現(xiàn)了硬件高效操作。
研究人員的成果是一個(gè)用于高分辨率計(jì)算機(jī)視覺(jué)的新型模型系列,在將其部署到移動(dòng)設(shè)備上時(shí),其運(yùn)行速度比原來(lái)的模型快9倍。重要的是,與此類(lèi)替代方案相比,該款新模型的準(zhǔn)確性與之相同,甚至更高。
該技術(shù)不僅可以用于幫助自動(dòng)駕駛汽車(chē)實(shí)時(shí)做出決策,還可以提高醫(yī)學(xué)圖像分割等其他高分辨率計(jì)算機(jī)視覺(jué)任務(wù)的效率。
來(lái)源:蓋世汽車(chē)
作者:Fairy
本文地址:http://www.medic-health.cn/news/jishu/210135
以上內(nèi)容轉(zhuǎn)載自蓋世汽車(chē),目的在于傳播更多信息,如有侵僅請(qǐng)聯(lián)系admin#d1ev.com(#替換成@)刪除,轉(zhuǎn)載內(nèi)容并不代表第一電動(dòng)網(wǎng)(www.medic-health.cn)立場(chǎng)。
文中圖片源自互聯(lián)網(wǎng),如有侵權(quán)請(qǐng)聯(lián)系admin#d1ev.com(#替換成@)刪除。