文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.212449
中文引用格式: 劉彤,楊德振,,宋嘉樂(lè),,等. 空基下視多角度紅外目標(biāo)識(shí)別[J].電子技術(shù)應(yīng)用,2022,,48(7):131-139.
英文引用格式: Liu Tong,,Yang Dezhen,Song Jiale,,et al. Air-based downward-looking multi-angle infrared target recognition[J]. Application of Electronic Technique,,2022,48(7):131-139.
0 引言
采用多個(gè)復(fù)合翼無(wú)人機(jī)集群的空基紅外目標(biāo)探測(cè)識(shí)別系統(tǒng)進(jìn)行協(xié)同態(tài)勢(shì)感知是地面遠(yuǎn)程紅外制導(dǎo)的有效輔助手段。其中艦船和車(chē)輛目標(biāo)的智能識(shí)別算法作為當(dāng)代陸海防務(wù)系統(tǒng)中關(guān)鍵技術(shù),,對(duì)于保障我國(guó)的國(guó)防安全具有重要的應(yīng)用價(jià)值,。紅外圖像具有對(duì)比度高、作用距離遠(yuǎn),、穿透力強(qiáng)等特點(diǎn),,熱成像不需要借助外界光源,隱蔽性好,,可以全天時(shí)工作,。目前多數(shù)車(chē)載系統(tǒng)的視角為平視,平視視場(chǎng)受限,,而使用機(jī)載系統(tǒng)可以獲得更大的下視視場(chǎng)角,在實(shí)戰(zhàn)中能有效探測(cè)和攔截低空突防的威脅目標(biāo),。
傳統(tǒng)目標(biāo)識(shí)別算法難以對(duì)下視視場(chǎng)角的圖像進(jìn)行特征提取,,作為端到端學(xué)習(xí)的深度學(xué)習(xí),能夠自動(dòng)提取圖像特征,,具有較好的目標(biāo)識(shí)別能力,。北京理工大學(xué)的王旭辰等[1]提出基于深度學(xué)習(xí)的無(wú)人機(jī)載多平臺(tái)目標(biāo)檢測(cè)算法,使用Darknet-53網(wǎng)絡(luò)作為檢測(cè)器,,在公開(kāi)數(shù)據(jù)集UAV123和實(shí)測(cè)數(shù)據(jù)集中進(jìn)行檢測(cè),,驗(yàn)證得到該算法在視角旋轉(zhuǎn)、目標(biāo)尺度變化以及障礙物遮擋下能進(jìn)行穩(wěn)定檢測(cè),。但文中僅使用了YOLOv3目標(biāo)檢測(cè)算法,,并未對(duì)其進(jìn)行改進(jìn),檢測(cè)精度沒(méi)有得到提高,。電子科技大學(xué)的劉瑞[2]針對(duì)空中目標(biāo)存在目標(biāo)尺度及疏密程度變化大,、存在重疊、遮擋等問(wèn)題,,提出四級(jí)復(fù)雜度的航空?qǐng)D像目標(biāo)檢測(cè)算法,,采用復(fù)合擴(kuò)張主干網(wǎng)深度和寬度的方法構(gòu)建出四級(jí)復(fù)雜度的主干網(wǎng)絡(luò),再將主干網(wǎng)分別與FPN+PAN網(wǎng)絡(luò),、輸出頭網(wǎng)絡(luò)相結(jié)合,,得到空中目標(biāo)檢測(cè)算法。在VisDrone-DET2020訓(xùn)練集下對(duì)提出的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,,將算法的mAP@[.5:.95]累計(jì)提升了0.65%,,[email protected]累計(jì)提升了1.41%。但僅在公開(kāi)數(shù)據(jù)集上進(jìn)行訓(xùn)練與檢測(cè),,該公開(kāi)數(shù)據(jù)集僅為可見(jiàn)光數(shù)據(jù)集,,不具備紅外數(shù)據(jù)集所具備的優(yōu)點(diǎn)。嚴(yán)開(kāi)忠等[3]針對(duì)小型無(wú)人機(jī)載平臺(tái)算力受限,、檢測(cè)速度慢的問(wèn)題,,提出了一種改進(jìn)YOLOv3的目標(biāo)檢測(cè)算法,,引入深度可分離卷積對(duì)主干網(wǎng)絡(luò)進(jìn)行改進(jìn),降低網(wǎng)絡(luò)的參數(shù)和計(jì)算量,,從而提高檢測(cè)速度,。此外使用K-means生成先驗(yàn)框的初始聚類中心,在邊界框回歸中使用CIoU損失,,同時(shí)將DIoU與NMS相結(jié)合,,提高算法的檢測(cè)精度。在自定義數(shù)據(jù)集中的mAP為82%,,檢測(cè)速度從3.4 f/s提高到16 f/s,。但算法的檢測(cè)精度和速度仍有待提高。上海交通大學(xué)的朱壬泰等[4]針對(duì)目前深度學(xué)習(xí)中多目標(biāo)檢測(cè)算法占用資源量大,,無(wú)法在中小型無(wú)人機(jī)平臺(tái)上實(shí)時(shí)運(yùn)行的問(wèn)題,,提出了基于卷積神經(jīng)網(wǎng)絡(luò)計(jì)算優(yōu)化的算法。采用深度可分離卷積對(duì)計(jì)算量進(jìn)行優(yōu)化,,將主干網(wǎng)Resnet18中的卷積層替換為深度可分離卷積,,對(duì)改進(jìn)的算法在公開(kāi)數(shù)據(jù)集PASCAL VOC 2007進(jìn)行驗(yàn)證,得到在檢測(cè)精度不變的條件下,,檢測(cè)速度達(dá)到56 f/s,。但該算法在航拍數(shù)據(jù)集上的檢測(cè)精度由于與公開(kāi)數(shù)據(jù)集分布的差異有所下降,對(duì)航拍目標(biāo)的適應(yīng)性不強(qiáng),。周子衿[5]針對(duì)深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,,機(jī)載平臺(tái)計(jì)算資源有限,以及航拍視角中小目標(biāo)數(shù)量大,,難以對(duì)圖像特征進(jìn)行提取,,容易出現(xiàn)漏檢和錯(cuò)檢現(xiàn)象,對(duì)YOLOv3網(wǎng)絡(luò)進(jìn)行輕量化處理,,在網(wǎng)絡(luò)稀疏化訓(xùn)練后進(jìn)行BN層的通道剪枝,,此外使用K-maens++算法對(duì)先驗(yàn)框進(jìn)行重定義,將改進(jìn)后的算法在自定義的DOTA-like數(shù)據(jù)集上進(jìn)行測(cè)試,,算法權(quán)重模型大小下將98.7%,,使得推理時(shí)間加快了60.5%,檢測(cè)速度提高了32.9%,,檢測(cè)精度提高1.14%,。但無(wú)人機(jī)的飛行高度較低,局限于超低空域附近,,所看到的視場(chǎng)角受限,。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://wldgj.com/resource/share/2000004602。
作者信息:
劉 彤1,2,,3,,楊德振1,4,,宋嘉樂(lè)1,,2,3,,傅瑞罡3,,何佳凱1
(1.華北光電技術(shù)研究所 機(jī)載探測(cè)中心,北京100015,;2.中國(guó)電子科技集團(tuán)公司電子科學(xué)研究院,,北京100015;
3.國(guó)防科技大學(xué) 電子科學(xué)學(xué)院ATR重點(diǎn)實(shí)驗(yàn)室,,湖南 長(zhǎng)沙410073,;
4.北京真空電子技術(shù)研究所 微波電真空器件國(guó)家重點(diǎn)實(shí)驗(yàn)室,北京100015)