杭州2020年6月12日 /美通社/ -- 近日,大華股份基于深度學(xué)習(xí)的視覺目標(biāo)跟蹤算法,在通用目標(biāo)跟蹤評測集GOT-10k(Generic Object Tracking Benchmark)上獲得綜合精度排行榜第一,超越了其它一流AI公司和頂尖的學(xué)術(shù)研究機構(gòu);同時在OTB2015/VOT2018/VOT2019數(shù)據(jù)集上刷新了當(dāng)前跟蹤算法SOTA(state-of-the-art)標(biāo)準,這標(biāo)志著大華在視覺目標(biāo)跟蹤領(lǐng)域處于領(lǐng)先水平。
關(guān)于GOT-10k
GOT-10k數(shù)據(jù)集由中國科學(xué)院自動化研究所CASIA的智能系統(tǒng)與工程研究中心發(fā)布并維護,是具有國際權(quán)威的通用目標(biāo)跟蹤算法評測數(shù)據(jù)集。其中,訓(xùn)練集由10000個視頻序列組成,包含563個目標(biāo)類別與87種運動模式;測試集由180個視頻序列組成,包含84個目標(biāo)類別與32種運動模式。訓(xùn)練集與測試集的目標(biāo)類別不重合,且算法評估時要求使用統(tǒng)一的訓(xùn)練數(shù)據(jù),極具挑戰(zhàn)性,吸引了海內(nèi)外廣大學(xué)者和知名學(xué)術(shù)機構(gòu)參與。
關(guān)于視覺目標(biāo)跟蹤算法
該算法是為模擬人眼在目標(biāo)運動估計及跟蹤方面的能力,給定任意目標(biāo)的初始位置,跟蹤算法負責(zé)輸出后續(xù)幀中該目標(biāo)的位置與分布狀態(tài),同時要適應(yīng)相機視角變化、環(huán)境變化、遮擋物、周邊干擾物等因素的影響,可廣泛應(yīng)用于智能視頻監(jiān)測、輔助駕駛系統(tǒng)、人機交互、機器人視覺導(dǎo)航等領(lǐng)域。
在本次國際測評中,為實現(xiàn)復(fù)雜環(huán)境下對運動目標(biāo)的準確跟蹤,大華股份RSIA團隊創(chuàng)新使用特征點集取代矩形框進行目標(biāo)狀態(tài)估計,進而實現(xiàn)精細化的目標(biāo)區(qū)域表述與幾何變換建模能力;在算法框架上使用并行分支結(jié)構(gòu),結(jié)合多層聚合策略,有效獲取目標(biāo)結(jié)構(gòu)信息與對抗干擾物的強魯棒性。
在大華實際產(chǎn)品中的應(yīng)用