摘要:基于卷積神經網絡(CNN)的目標位姿估計模型的損失函數大多采用兩點之間的歐氏距離作為評判準則,雖然該損失函數計算簡單、運算速度快,但訓練規則不夠全面、缺乏對目標的全局認識。針對這一問題,提出了一種基于組合型損失函數的ComPoseNet模型,并進行位姿估計。此模型中的損失函數從空間學習的角度出發,同時利用兩點歐氏距離、兩點直線和兩點直線角度等作為訓練規則。相比傳統損失函數,此算法分別從點、線以及角度方面考慮了目標的空間整體位置,進一步減小了估計位姿與真實位姿之間的誤差,位姿估計得以改善。在LineMod數據上進行大量的實驗和分析,結果表明,在相同的訓練次數情況下,本文算法比傳統算法收斂速度快、精度高、誤差小,其中平移誤差降低了7.407%,角度誤差降低了6.968%。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社