《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > MEMS|傳感技術(shù) > 業(yè)界動態(tài) > 在自動駕駛過程中 單目視覺識別的作用不可忽視

在自動駕駛過程中 單目視覺識別的作用不可忽視

2018-11-30
關(guān)鍵詞: 視覺識別 自動駕駛

  對單目來說物體越遠(yuǎn),,測距的精度越低,,硬件上的缺點可以通過算法去彌補(bǔ),,近日有兩篇關(guān)于單目視覺的研究論文曝光,,一篇是單目視頻的深度估計,,另一篇則是單目3d物體識別,,在數(shù)據(jù)集下測試都取得了不錯的效果,,我們熟悉的單目攝像頭可能一直被低估了,。

  攝像頭是自動駕駛汽車中重要的傳感器之一,,在自動駕駛過程中的首要任務(wù)就是道路識別,,主要是圖像特征法和模型匹配法來進(jìn)行識別。行駛過程中需要進(jìn)行障礙物檢測和路標(biāo)路牌識別等,,此時車輛上的信息采集便可以運用單目視覺或者多目視覺,。

  pIYBAFv_sRGAMkGdAABXbQairQg328.png

  由于很多圖像算法的研究都是基于單目攝像機(jī)開發(fā)的,因此相對于其他類別的攝像機(jī),,單目攝像機(jī)的算法成熟度更高,。基于單目攝像頭可以用來定位,、目標(biāo)識別等,。但是相比多目,單目有著先天的缺陷,,視野信息不能夠豐富,,單目測距的精度也較低。

  不過單目攝像頭的作用還未發(fā)揮到極致,,近日有兩篇關(guān)于單目視覺的研究,,讓眾多研究者驚艷,原來單目一樣可以有不錯的表現(xiàn),。

  Paper1:Orthographic Feature Transform for Monocular 3D Object Detection

  單目3d物體檢測是一件很有挑戰(zhàn)性的事情,,目前最先進(jìn)系統(tǒng)的成績也不及用激光雷達(dá)的1/10,劍橋大學(xué)的科學(xué)家利用單目視覺進(jìn)行3d物體識別,,通過引入正交特征變換,,使基于圖像的特征映射到正交3D空間,來避免形成圖像域,,可以全面地推斷出各個物體比例尺寸以及相隔的距離,。通過在KITTI數(shù)據(jù)集里測試,發(fā)現(xiàn)與前人的Mono3D方法對比,,這種方法在鳥瞰圖平均精確度,、3D物體邊界識別上各項測試成績上均優(yōu)于對手。

  尤其在探測遠(yuǎn)處物體時要遠(yuǎn)超Mono3D,,遠(yuǎn)處可識別出的汽車數(shù)量更多,。甚至在嚴(yán)重遮擋,、截斷的情況下仍能正確識別出物體。在某些場景下甚至達(dá)到了3DOP系統(tǒng)的水平,。

  在這項工作中,,提出的一種新穎的單目三維物體檢測方法,基于在鳥瞰視野范圍內(nèi)操作的,,減輕了許多不良圖像的屬性,,更易于推斷出世界的3D結(jié)構(gòu)。用一種簡單的正交特征變換,,將基于圖像的特征轉(zhuǎn)換為這種鳥瞰視圖表示,,并描述了如何使用圖像積分有效地實現(xiàn)它,以深二維卷積網(wǎng)絡(luò)的形式應(yīng)用于提取的鳥瞰特征,,取得了不錯的效果,,說明單目還有很大可開發(fā)的空間。

  Paper2:A Structured Approach to Unsupervised Depth Learning from Monocular Videos

  o4YBAFv_sPqAG9ucAAHDZi0uBN0957.png

  這是谷歌的工程師做的一個研究,,他利用單目視頻深度估計,,自從2014年NIPS上出現(xiàn)第一篇用CNN-based來做單目深度估計,近幾年也不斷涌現(xiàn)出一些做單目深度估計的文章,,有直接依靠深度學(xué)習(xí)和網(wǎng)絡(luò)架構(gòu)得到結(jié)果,,還有依靠于深度信息本身的性質(zhì)進(jìn)行估計,基于CRF和基于相對深度方法的,,本篇文章是基于無監(jiān)督學(xué)習(xí)單目視頻深度估計,。文中的方法能夠模擬運動物體并產(chǎn)生高質(zhì)量的深度估計結(jié)果,與以前的單目視頻無監(jiān)督學(xué)習(xí)方法相比,,該方法能夠恢復(fù)移動物體的正確深度,。也就說,能夠正確地恢復(fù)與自身運動車輛相同速度的移動汽車的深度,。因為一臺相對靜止的車輛,,往往會表現(xiàn)出與地面相同的無線深度特征,解決了高動態(tài)場景中的問題,。

  這些方法仍需要很長時間去測試其可靠性,,相比激光雷達(dá),單目算法一旦能在無人駕駛汽車上成功應(yīng)用,,將會節(jié)省一大筆費用,,單目視覺識別可能還有著無限的市場潛力。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。