基于SAM和pix2pix的商品數(shù)據(jù)集生成網(wǎng)絡(luò)
所屬分類(lèi):技術(shù)論文
上傳者:wwei
文檔大小:4813 K
標(biāo)簽: 商品識(shí)別 SAM pix2pix
所需積分:0分積分不夠怎么辦?
文檔介紹:針對(duì)商品包裝快速變換帶來(lái)的商品數(shù)據(jù)集采集和標(biāo)注過(guò)程繁瑣的問(wèn)題,,設(shè)計(jì)了一種基于SAM和pix2pix的商品數(shù)據(jù)集生成網(wǎng)絡(luò)。該網(wǎng)絡(luò)以單個(gè)商品多角度圖像作為輸入,,生成與實(shí)際結(jié)算場(chǎng)景相近似的數(shù)據(jù)集。在RPC大型商品數(shù)據(jù)集上進(jìn)行數(shù)據(jù)集生成,,在YOLOv7,、Fast R-CNN、AlexNet三種目標(biāo)檢測(cè)網(wǎng)絡(luò)上驗(yàn)證生成數(shù)據(jù)集對(duì)目標(biāo)檢測(cè)效果的提升,。實(shí)驗(yàn)結(jié)果表明,,生成數(shù)據(jù)集融合到原數(shù)據(jù)集后用于訓(xùn)練模型能夠有效提升商品識(shí)別準(zhǔn)確率,并且與真實(shí)數(shù)據(jù)集相比具有較好的替代性,。相較于原數(shù)據(jù)集,,融合生成數(shù)據(jù)集三個(gè)網(wǎng)絡(luò)上識(shí)別精度分別提升7.3%、4.9%,、7.8%,。通過(guò)該方法,顯著提高了模型訓(xùn)練的效率與實(shí)用性,,減輕傳統(tǒng)商品數(shù)據(jù)集采集與標(biāo)注所需的人力物力投入,。
現(xiàn)在下載
VIP會(huì)員,AET專(zhuān)家下載不扣分,;重復(fù)下載不扣分,,本人上傳資源不扣分。