与“动静”dual-template暹罗跟踪融合和动态模板自适应更新gydF4y2Ba
- 机械工程学院,湖南科技大学,湘潭,中国gydF4y2Ba
近年来,基于暹罗网络吸引了注意力的视觉跟踪算法的速度和准确度的理想平衡。这种跟踪方法的性能在很大程度上依赖于目标模板。静态模板不能应对目标外观变化的不利影响。动态模板方法,模板更新机制,能够适应目标外观的变化,但它也会导致新的问题,这可能导致模板被噪声污染。基于DaSiamRPN和UpdateNet模板更新网络,与“动静”dual-template暹罗跟踪融合和动态模板自适应更新提出了本文。新方法结合了静态模板和动态实时更新的模板对象跟踪。采用一种自适应更新策略更新动态模板时,它不仅可以帮助适应对象的变化的外表,但也抑制噪声干扰和污染的不利影响的模板。实验结果表明,该方法的鲁棒性和EAO分别为23%和9.0%高于VOT2016数据集的基本算法,分别,精度和成功OTB100数据集增加了0.4%和0.8,分别。最全面的实时跟踪性能得到上述两个大型公共数据集。gydF4y2Ba
1。介绍和动机gydF4y2Ba
视频对象跟踪,指不断跟踪对象的状态在后续帧序列通过使用对象的初始位置和尺度信息,是高层次的基础视觉任务,比如视觉检查、视觉导航和视觉伺服(gydF4y2BaNousi et al ., 2020gydF4y2Ba;gydF4y2Ba王et al ., 2020gydF4y2Ba;gydF4y2BaKarakostas et al ., 2021gydF4y2Ba;gydF4y2Ba太阳et al ., 2021gydF4y2Ba)。在工程实践中,干扰等物体的姿态和规模的变化,噪声干扰、背景遮挡,或光照条件的变化可能会导致跟踪失败,所以对象跟踪仍然是一个挑战性的任务(gydF4y2BaZhang et al ., 2020gydF4y2Ba;gydF4y2Ba张h . et al ., 2021gydF4y2Ba;gydF4y2Ba刘et al ., 2022gydF4y2Ba)。gydF4y2Ba
对象跟踪方法大致可以分为生成方法和区别的方法(gydF4y2Ba张y . et al ., 2021gydF4y2Ba;gydF4y2BaDunnhofer et al ., 2022gydF4y2Ba)。生成方法首先建立对象的模型,然后寻找最相似的区域对象在后续帧通过迭代实现目标定位。有识别力的跟踪算法变换对象跟踪问题转化为一个二元分类问题的对象和背景,并找到预测对象位置训练一个分类器来区分对象从背景中。一般来说,生成方法不依赖于训练样本和容易实现,而歧视的更强的鲁棒性。gydF4y2Ba
应对各种挑战,大量的研究都集中在近年来视觉跟踪。与机器学习和信号处理技术的不断进步,算法基于相关性过滤器(gydF4y2Ba张j . et al ., 2022gydF4y2Ba;gydF4y2BaLy et al ., 2021gydF4y2Ba)和深度学习(gydF4y2Ba海升果汁et al ., 2019gydF4y2Ba;gydF4y2BaVoigtlaender et al ., 2020gydF4y2Ba;gydF4y2Ba谭et al ., 2021gydF4y2Ba;gydF4y2Ba张x et al ., 2022gydF4y2Ba)已经逐渐取代传统方法成为主流对象跟踪算法。这些方法都是歧视的方法。相关跟踪滤波器的基本思想是使用设计滤波器模板与目标候选人相关操作区,和最大输出响应的位置位于当前帧的目标位置。出现之前的对象跟踪算法基于相关性过滤器,所有跟踪操作完成后在时域内的大量数据和长时间的计算时间。然而,对象跟踪算法基于相关性过滤器转换操作从时域到频域,减少计算量,同时保证数据的完整性。早期相关过滤对象跟踪算法包括MOSSE(输出最小平方误差的总和过滤器)算法(gydF4y2BaBolme et al ., 2010gydF4y2Ba与内核),埋头(循环结构)算法(gydF4y2Ba戴安娜et al ., 2012gydF4y2Ba),KCF (Kernelized相关性过滤器)算法(gydF4y2Ba戴安娜et al ., 2015gydF4y2Ba),SAMF(规模适应多个特性)算法(gydF4y2Ba李和朱,2014年gydF4y2Ba)等。上述算法使用手动功能。之后,人们开始引入深度学习相关过滤,挖掘更健壮的深度特性从原始数据来取代传统的手动功能,从而进一步提高相关滤波算法的鲁棒性。典型的对象跟踪算法,结合相关过滤和深度学习包括深SRDCF(基于卷积滤波器特性相关的视觉跟踪)算法(gydF4y2BaDanelljan et al ., 2015 agydF4y2Ba),C-COT(连续卷积运算符)算法(gydF4y2BaDanelljan et al ., 2016 agydF4y2Ba),生态高效的卷积运算符跟踪算法(gydF4y2BaDanelljan et al ., 2017 agydF4y2Ba)等。gydF4y2Ba
深度学习对象跟踪算法基于暹罗网络由于其良好的性能受到了人们的广泛关注在测试中各种指标跟踪数据集。SiamFC(完全卷积暹罗网络对象跟踪;gydF4y2BaBertinetto et al ., 2016 bgydF4y2Ba),较早的对象跟踪算法基于一个完全卷积暹罗网络,使用一个完全卷积网络结构学习目标区域之间的相似性度量和搜索区域,因此查看跟踪的问题寻找目标对象在整个图像。基于SiamFC,gydF4y2BaBo et al . (2018)gydF4y2Ba提出SiamRPN(高性能视觉跟踪与暹罗地区建议网络),一个对象跟踪算法基于区域建议网络。分类的方法,网络为前景和背景估计和回归网络包括锚边界框校正,估计物体的位置和大小通过边界框长宽比与一个变量,这样可以获得更准确的边界框。gydF4y2Ba朱镕基et al。(2018)gydF4y2Ba提出了暹罗网络跟踪算法基于错误选择,DaSiamRPN (Distractor-Aware暹罗网络视觉物体跟踪),这提高了歧视的能力模型通过引入Distractor-Aware模块。基于SiamFC或SiamRPN,gydF4y2Ba张和彭(2019)gydF4y2Ba提出了SiamDW(更深层次和更广泛的暹罗网络实时视觉跟踪)算法,进一步提高了跟踪精度和鲁棒性,通过引入内部剪切单元剩余块进入更深层次和更广泛的网络。SiamMask(快速在线对象跟踪和分割:一个统一的方法)算法提出的gydF4y2Ba王et al。(2019)gydF4y2Ba可以同时实现视频对象跟踪和视频对象分割、面具和一种自适应预测边界框中可以获得对象跟踪,从而大大提高了跟踪的准确性。gydF4y2Ba
上面的跟踪算法基于暹罗网络达到最优性能,但所有这些算法使用对象的位置在第一帧图像作为一个固定的模板在跟踪过程中,这使得他们无法处理好负面影响的对象的外观的变化。为了应对这个问题,一个模板更新机制被引入对象跟踪。gydF4y2BaDanelljan et al。(2015 b)gydF4y2Ba提高跟踪效率,通过建立高斯混合模型的训练样本连同一个保守的模板更新策略(每五帧更新)。gydF4y2BaGaloogahi et al。(2017)gydF4y2Ba提出background-aware相关滤波算法,实现了对象跟踪精度高、实时性能通过集中提取实际负样本的背景更新过滤器。上述研究为模板更新使用线性插值,容易导致跟踪漂移,导致跟踪失败。暹罗UpdateNet(学习模型更新追踪器)算法提出的gydF4y2BaZhang et al。(2019)gydF4y2Ba通过训练有素的卷积神经网络实现模板跟踪,大大提高了跟踪性能。gydF4y2Ba王w . et al。(2020)gydF4y2Ba介绍了稀疏的更新机制的跟踪框架,这可以帮助对象跟踪自适应地选择适当的水平。这种更新策略在一定程度上降低了模型的复杂性。gydF4y2Ba黄et al。(2019)gydF4y2Ba提出了一个基于迁移学习相关滤波器跟踪器,更新模型的迁移历史过滤数据来提高跟踪的鲁棒性。gydF4y2Ba汉et al。(2020)gydF4y2Ba提出了空间正则化方法与内容更新观念,调整重量分布地图通过优化约束问题,以更好地适应对象和背景的变化,因此可以实现可靠的跟踪。gydF4y2Ba张y . et al。(2022)gydF4y2Ba提出了一个dual-stream协作跟踪算法结合可靠的记忆更新,实现实时跟踪速度和跟踪性能优越。gydF4y2Ba
模板更新机制的引入有效地提高了暹罗网络对象跟踪算法的性能。然而,在实际应用的情况下有各种噪声干扰。模板更新机制带来了新的问题,而更好地适应目标的外观的变化,导致模板被噪声污染干扰(gydF4y2Ba苏et al ., 2022gydF4y2Ba)。gydF4y2Ba
为了进一步提高对象跟踪算法的性能,与“动静”dual-template暹罗跟踪融合和动态模板自适应更新,提出了基于DaSiamRPN和UpdateNet模板更新网络。新方法结合了静态模板和动态实时更新的模板对象跟踪。应用一种自适应更新策略更新动态模板时,这有助于决定是否更新动态模板用当前帧的跟踪结果之间的相似性和动态模板,以及当前帧图像的无参考评价结果,判断的必要性更新模板和模板污染的可能性,如果模板更新。通过这种方式,它可以抑制噪声干扰和污染的不利影响的模板而适应对象的变化的外观。新方法实现全面、实时跟踪性能最好的两个大型公共数据集,VOT2016 OTB100。gydF4y2Ba
2。该方法gydF4y2Ba
基于DaSiamRPN算法,该方法引入了“动静”dual-template融合和动态模板自适应更新机制。其整体网络架构所示gydF4y2Ba图1gydF4y2Ba,包括特征提取模块,RPN(地区建议网络),动态模板更新模块,和“动静”dual-template融合模块。为了保证目标跟踪的实时性能,AlexNet浅DaSiamRPN所使用的网络算法还采用特征提取模块。由一项分类网络foreground-background估计和回归网络锚边界框修正。它使用一个边界框与变量比例估计物体的位置和大小,从而获得更准确的边界框。基于UpdateNet网络,动态模板更新模块设计了一种自适应更新策略,确定实现模板更新网络根据两个定量指标,提供最优的模板下一个框架:一个是当前帧的跟踪结果之间的相似性和动态模板;另一个是没有参考当前帧图像的评价结果。dual-template融合模块考虑初始模板和动态模板的优势通过静态模板和动态加权融合的模板,这减少了跟踪的鲁棒性。gydF4y2Ba
2.1。特征提取模块和项gydF4y2Ba
两个神经网络权重组成了一个暹罗共享网络对象特征提取:一个是模板中提取特征的分支从目标模板框架gydF4y2Ba特遣部队gydF4y2Ba,另一个是搜索分支中提取的特征的框架gydF4y2Ba科幻小说gydF4y2Ba。两个分支共享卷积神经网络参数。gydF4y2Ba
特征提取模块应用DaSiamRPN AlexNet网络使用的算法,以及RPN也符合DaSiamRPN的算法。特征映射得到的特征提取模块的输入项。项被用来获得一个更精确的目标候选人盒,包括分类分支φgydF4y2BaclsgydF4y2Baφ(·)和回归分支gydF4y2Ba注册gydF4y2Ba(·)。gydF4y2Ba
首先,视频的第一帧图像作为目标模板(见蓝色的视频帧的边界框的左上角gydF4y2Ba图1gydF4y2Ba),然后生成的RPN锚箱,并将Softmax分类器被用来提取积极锚获取更准确gydF4y2Ba分类的分支。分支分类确定每个位置是前景或背景:gydF4y2Ba
在方程1中,gydF4y2Ba代表了分类特征映射的目标和背景的分数信息每个预定义的锚箱存储。W和H代表特性图的宽度和高度,分别;K是锚箱的数量;gydF4y2Ba科幻小说gydF4y2Ba代表了搜索框;gydF4y2Ba特遣部队gydF4y2Ba表示模板框架;和*是指互相关操作。gydF4y2Ba
其次,non-maximum抑制(NMS)是用来确定预定义的锚箱(如绿色边界框所示的视频帧的右下角gydF4y2Ba图1gydF4y2Ba地图)的特性gydF4y2Ba获得的分类。xgydF4y2Ba一个gydF4y2BaygydF4y2Ba一个gydF4y2BawgydF4y2Ba一个gydF4y2Ba,和hgydF4y2Ba一个gydF4y2Ba代表中心坐标、宽度和高度的预定义的锚箱,分别。gydF4y2Ba
然后,中心点的坐标偏移量对应的锚箱(gydF4y2BadxgydF4y2Ba注册gydF4y2Ba,gydF4y2BadygydF4y2Ba注册gydF4y2Ba),这个锚箱的长度和宽度比真正的目标框(gydF4y2BadwgydF4y2Ba注册gydF4y2Ba,gydF4y2BadhgydF4y2Ba注册gydF4y2Ba)选择功能映射得到的回归。回归分支的所有目标边界框计算可能存在在每一个地点:gydF4y2Ba
在方程2中,gydF4y2Ba代表了回归特性映射存储信息,如中心点的坐标偏移的预定义锚箱和预定义的锚盒子的宽度和高度比真正的目标。gydF4y2Ba
最后,预测框(如红色所示视频帧的边界框的右上角gydF4y2Ba图1gydF4y2Ba)是通过边界框坐标回归预定义的锚箱。xgydF4y2Ba精准医疗gydF4y2Ba代表的中心坐标的横坐标预测框:gydF4y2Ba
ygydF4y2Ba精准医疗gydF4y2Ba代表中心的协调预测框的坐标:gydF4y2Ba
wgydF4y2Ba精准医疗gydF4y2Ba代表了预测框的宽度:gydF4y2Ba
hgydF4y2Ba精准医疗gydF4y2Ba代表的高度预测框:gydF4y2Ba
2.2。动态模板更新模块gydF4y2Ba
2.2.1。UpdateNet网络gydF4y2Ba
UpdateNet的卷积神经网络是用来实现动态模板更新和网络框架所示gydF4y2Ba图2gydF4y2Ba并可以用以下公式:gydF4y2Ba
在哪里gydF4y2Ba累积模板更新后的当前帧跟踪完成;ζ(·)的功能UpdateNet网络;gydF4y2Ba在第一帧的模板;gydF4y2Ba动态模板更新后的前一帧图像目标跟踪完成;和gydF4y2BaTgydF4y2Ba我gydF4y2Ba是当前帧对象跟踪结果。剩余的学习策略是通过这个网络,从给出的模板添加一个跳连接在第一帧的输出。第一帧对象的跟踪图像序列,两者兼而有之gydF4y2BaTgydF4y2Ba我gydF4y2Ba和gydF4y2Ba将gydF4y2Ba。使用新的跟踪结果UpdateNet更新模板,以更好地适应对象的变化的外观。gydF4y2Ba
2.2.2。自适应更新策略gydF4y2Ba
本文提出的自适应更新策略决定是否更新动态模板通过判断的必要性更新模板和模板污染的可能性,如果模板更新根据两个量化指标:一个是每个图像区域之间的相似度,另一个是没有参考图像质量的评价结果。通过这种方式,它能够抑制噪声干扰和污染的不利影响模板的同时适应对象的变化出现。两个图像块之间的相似性是量化的gydF4y2BalgydF4y2Ba1规范他们之间:gydF4y2Ba
在方程8中,| |·| |是gydF4y2BalgydF4y2Ba1规范;M和gydF4y2BaNgydF4y2Ba是两个图像块的相似性进行比较;和gydF4y2Ba年代gydF4y2Ba定量结果的两个图像块之间的相似性。的值越小gydF4y2Ba年代gydF4y2Ba这两个图像块,越相似。gydF4y2Ba
摘要NIQE(自然图像质量评估者;gydF4y2Ba米塔尔et al ., 2013gydF4y2Ba)被用来评估图像质量。Mahalanobis距离MVG(多元高斯模型)通过自然图像特性拟合,通过图像的特性拟合测量是用这种方法来表示图像质量:gydF4y2Ba
在哪里gydF4y2BaDgydF4y2Ba代表了图像质量的定量评价结果,其值越小,图像质量越好。gydF4y2BavgydF4y2Ba1gydF4y2Ba和gydF4y2BavgydF4y2Ba2gydF4y2Ba代表MVG模型的均值向量的自然图像和图像进行测试,分别。∑gydF4y2Ba1gydF4y2Ba和∑gydF4y2Ba2gydF4y2Ba是MVG模型的协方差矩阵的自然图像和图像进行测试,分别。gydF4y2Ba
与上述两种定量评价指标,提出了自适应更新的整个过程策略所示gydF4y2Ba图3gydF4y2Ba。为了准确地确定是否应该更新模板,共有三个相似性阈值λgydF4y2Ba1gydF4y2Ba,λgydF4y2Ba2gydF4y2Ba,λgydF4y2Ba3gydF4y2Ba,图像质量阈值δ,集。其中,λgydF4y2Ba1gydF4y2Ba是异常目标外观的阈值,当当前帧的跟踪对象之间的相似性和动态模板吗gydF4y2Ba年代gydF4y2BacgydF4y2Ba是>λgydF4y2Ba1gydF4y2Ba,这表明目标外观特征改变了超出了正常范围。λgydF4y2Ba2gydF4y2Ba目标外观的明显的变化阈值,当gydF4y2Ba年代gydF4y2BacgydF4y2Ba是>λgydF4y2Ba2gydF4y2Ba,它表明目标外观特征有显著改变。λgydF4y2Ba3gydF4y2Ba是阈值的变化目标外观和什么时候gydF4y2Ba年代gydF4y2BacgydF4y2Ba是>λgydF4y2Ba3gydF4y2Ba,这表明有一些目标外观变化特征有一定的对目标跟踪的影响,反之,目标外观特征几乎不变。δ是良好的图像质量阈值,当当前目标子图像块的质量评价结果gydF4y2BaDgydF4y2BacgydF4y2Ba是<δ,它表明,当前帧的目标子图像块在质量和高噪声干扰几乎不影响图像采集。gydF4y2Ba
在这个过程中,阈值λgydF4y2Ba1gydF4y2Ba首先是用来判断是否有严重的异常在当前图像采集和目标跟踪。如果gydF4y2Ba年代gydF4y2BacgydF4y2Ba是≥λgydF4y2Ba1gydF4y2Ba,动态模板不会被更新以避免模板被污染的异常数据。gydF4y2Ba
如果gydF4y2Ba年代gydF4y2BacgydF4y2Ba是<λgydF4y2Ba1gydF4y2Ba,它应该进一步判断是否≥λgydF4y2Ba2gydF4y2Ba。如果是这样,它表明对象外观改变了显然在正常情况下,为了应对这些变化,模板必须更新。gydF4y2Ba
如果gydF4y2Ba年代gydF4y2BacgydF4y2Ba是<λgydF4y2Ba2gydF4y2Ba,它需要继续判断gydF4y2Ba年代gydF4y2BacgydF4y2Ba是≥λgydF4y2Ba3gydF4y2Ba。这个时候,如果gydF4y2Ba年代gydF4y2BacgydF4y2Ba小于λgydF4y2Ba3gydF4y2Ba,这表明对象的外观特性几乎不变,所以没有需要更新的动态模板。如果gydF4y2Ba年代gydF4y2BacgydF4y2Ba是≥λgydF4y2Ba3gydF4y2Ba,这表明有一些物体外表的变化在正常情况下有一定的对目标跟踪的影响,认为变化不够重要更新模板。然后,需要判断gydF4y2BaDgydF4y2BacgydF4y2Ba是≥δ。如果是这样,它表明,图像质量很差所以动态模板不会被更新以避免模板污染,反之,动态模板将被更新。gydF4y2Ba
2.3。“动静”dual-template融合模块gydF4y2Ba
本文融合特征映射方法通过使用静态和动态模板的分类项分支。gydF4y2Ba
在方程10中,gydF4y2Ba一个gydF4y2Ba的功能映射分类融合和后分支吗gydF4y2Ba代表了特征映射得到的静态模板分类分支:gydF4y2Ba
在哪里gydF4y2Ba代表初始帧的特征分类的分支,和W, H, K,gydF4y2Ba科幻小说gydF4y2Ba有相同的意思同方程11。gydF4y2Ba
αϵ[0,1],它代表了在融合权重系数:gydF4y2Ba
在哪里gydF4y2Ba年代gydF4y2BadgydF4y2Ba代表之间的相似度的量化结果的动态模板前一帧和前一帧跟踪获得的对象,和gydF4y2Ba年代gydF4y2BaogydF4y2Ba是对象之间的相似性通过前一帧的跟踪和模板的初始框架。gydF4y2Ba
这个模块的引入可以给对象跟踪算法使用静态和动态模板的优势,并使其抑制噪声干扰和污染的不利影响的模板而适应对象的变化的外观。gydF4y2Ba
3所示。实验结果和分析gydF4y2Ba
3.1。实现细节和参数gydF4y2Ba
所有的算法在这个实验中进行了使用Pytorch 1.7.1上深学习平台的深度学习工作站。深度学习工作站使用Windows 10操作系统和英特尔gydF4y2Ba®gydF4y2Ba至强(R)黄金6139 CPU, 128 GB的内存,和Nvidia GPU GTX3080装备进行并行计算。gydF4y2Ba
ImageNet VID (gydF4y2Ba吗?gydF4y2Ba),YouTube-BoundingBoxes (gydF4y2Ba真正的et al ., 2017gydF4y2Ba),ImageNet侦破和可可(gydF4y2Ba林et al ., 2014gydF4y2Ba)数据集被用作训练集训练特征提取网络学习对象之间的相似性。从LaSOT十序列是随机选择(gydF4y2Ba风扇et al ., 2019gydF4y2Ba)数据集作为训练集训练模板更新网络。一批64年每个训练样本训练阶段,共有50时代,每个时代的学习速率减少对数从10gydF4y2Ba−7gydF4y2Ba到10gydF4y2Ba−8gydF4y2Ba。动量的随机梯度下降法是用于优化,在实际的优化过程中,优化的难度逐渐增加特征提取的深度增加。为了防止每一层的损失函数梯度爆炸,动量是设置为0.9;重量衰减参数被设置为0.0005;和模板图像和搜索图像的大小被设置为127×127、271×271,分别。gydF4y2Ba
此外,当前帧的平均跟踪对象之间的相似性和动态模板gydF4y2Ba年代gydF4y2BacgydF4y2Ba通过培训模板更新网络为0.0017,方差为0.0023,标准差为0.048,最大值是7。许多研究后,我们发现外观异常的阈值λgydF4y2Ba1gydF4y2Ba应该是四倍标准差。外观变化的阈值λgydF4y2Ba2gydF4y2Ba可以约0.01倍标准差。外观变化阈值λgydF4y2Ba3gydF4y2Ba可以约0.005倍标准差。通过计算超过20000帧的图像质量,我们发现下面的图像质量15是更好。因此,当使用方法本文阈值λgydF4y2Ba1gydF4y2Ba,λgydF4y2Ba2gydF4y2Ba,λgydF4y2Ba3gydF4y2Ba和δ0.5 6×10gydF4y2Ba−4gydF4y2Ba1×10gydF4y2Ba−4gydF4y2Ba,15。gydF4y2Ba
3.2。评价基准gydF4y2Ba
3.2.1之上。VOT2016基准实验gydF4y2Ba
嗓音起始时间系列数据集是一种最数据集用于视觉物体跟踪。VOT2016数据集包括60视频序列与多个挑战,每个标签序列的视觉属性。有六个属性:相机运动,光环境变化,闭塞,大小变化、运动变化,没有退化。使用的绩效评估指标数据集包括预期平均重叠(EAO),精度(一、准确性),和健壮性(R,鲁棒性)。其中,EAO可以更好地反映跟踪算法的综合性能,通常被认为是最重要的指标。描述的准确性,重叠的平均得分,通过计算交点的比率超过联盟(借据)的预测盒和真相盒。鲁棒性是一个指标用于评估跟踪算法的稳定性,其值越小,算法更加稳定。gydF4y2Ba
这种方法的性能和当前主流对象跟踪算法(SiamFC、SiamRPN SiamDW-RPN, SiamMask, C-COT, DaSiamRPN,和UpdateNet) VOT2016数据集所示gydF4y2Ba表1gydF4y2Ba。从表中可以看出,该方法的鲁棒性大大改善与其他算法相比,在0.183。这是23%高于基本算法DaSiamRPN高了8.9%,比排名第二的UpdateNet算法。EAO得分,这反映了物体跟踪算法的综合性能,也是最高,得分为0.449。DaSiamRPN算法高出9.0%,比排名第二的UpdateNet算法高出0.2%。所有算法的准确率排名第三,比DaSiamRPN算法低1.8%和3.4%低于最高的SiamMask算法精度。最重要的是,本文中的方法有最好的综合性能在所有的算法相比,特别是在复杂的环境的鲁棒性。gydF4y2Ba图4gydF4y2Ba显示了视觉排序的准确性和鲁棒性,并且gydF4y2Ba图5gydF4y2Ba显示了平均的分数排序图重叠的期望。gydF4y2Ba
3.2.2。OTB100基准实验gydF4y2Ba
OTB100数据集包含100个视频序列,跟踪参与这些场景视频序列可以分为11个标签属性。这两个指标,跟踪精度和成功,正在使用的数据集对算法的性能进行评估。跟踪精度是指的比值与中心位置误差估计的帧数,总在20像素的帧数,和成功指的帧数的百分比在十字路口的联盟目标预测盒和真正的边界框> 0.5帧的总数。该方法与当前主流对象跟踪算法[SiamFC SiamRPN,主食(gydF4y2BaBertinetto et al ., 2016 agydF4y2Ba),SRDCF (gydF4y2BaDanelljan et al ., 2016 bgydF4y2Ba),CFNet (gydF4y2BaValmadre et al ., 2017gydF4y2Ba),fDSST (gydF4y2BaDanelljan et al ., 2017 bgydF4y2Ba)、DaSiamRPN和UpdateNet] OTB100数据集,和gydF4y2Ba图6gydF4y2Ba显示每个跟踪算法的精度和成功。在所有的跟踪算法相比,该方法居第一位,精度分数的86.4%和64.7%的成功得分。与DaSiamRPN基本算法相比,该方法的精度和成功增加了0.4%和0.8,分别。与UpdateNet算法相比,该方法的精度和成功增加了0.9%和0.6,分别。总体而言,该方法的性能优于目前主流的对象跟踪算法。gydF4y2Ba
特别是,我们现在比较曲线变形,闭塞,平面旋转OTB100数据集的属性gydF4y2Ba图7gydF4y2Ba。显然,精密的情节,我们的跟踪方法优于所有竞争对手相比的变形和飞机上旋转属性。精度与UpdateNet算法相比,增加了1.4%和0.8,与DaSiamRPN算法相比,精度提高了1.3%和2.7,分别。然而,在闭塞属性精度的情节,我们的跟踪方法是0.4%低于UpdateNet算法,但2.6%高于DaSiamRPN算法。成功的情节,我们的跟踪方法获得成功得分最高的变形、闭塞、平面旋转的属性。精度与UpdateNet算法相比,增加了2.1,0.5和2.1%,并与DaSiamRPN算法,精度增加了3.0 - 1.9,分别和1.1%。可以看出,我们的方法可以克服挑战对象跟踪。gydF4y2Ba
3.3。定性评价gydF4y2Ba
为了视觉显示跟踪效果,几个视频序列与各种跟踪困难选择从VOT2016数据集和比DaSiamRPN UpdateNet算法来验证实验,如图所示gydF4y2Ba图8gydF4y2Ba。gydF4y2Ba
跟踪鱼2视频序列的主要困难在于相似的对象干扰。在第92帧,快速运动物体的模糊引起的,所以DaSiamRPN算法跟踪失败,而本文方法和UpdateNet算法能更准确地跟踪对象。在第275帧,干预对象类似于目标,和DaSiamRPN算法误判了模拟作为跟踪目标。然而,在同等条件下,本文算法克服了干扰和实现鲁棒跟踪。在第309帧一个干扰对象,类似于目标再次出现,该方法可以更准确地跟踪目标比DaSiamRPN UpdateNet算法。gydF4y2Ba
跟踪的主要困难handball2视频序列目标遮挡,相似的对象的干扰,和姿态变化。在第279帧,跟踪对象被另一个移动物体,由于目标的模糊造成的快速运动,DaSiamRPN算法跟踪目标误。然而,该方法仍能跟踪对象,尽管闭塞引起的另一个移动物体。gydF4y2Ba
跟踪矩阵视频序列的主要困难是相似的对象干扰和光照条件的变化。35帧,相似的对象出现干扰,所以DaSiamRPN算法跟踪目标误。在第77帧,DaSiamRPN算法跟踪漂移由于复杂的背景和光照条件的重大变化。然而,该算法可以跟踪对象更稳定,尽管上述困难。gydF4y2Ba
追踪兔子视频序列的主要困难是跟踪对象的体积小和类似的背景干扰。在第133和第152帧,DaSiamRPN算法和UpdateNet算法未能跟踪对象,该方法在本文仍然位于对象稳定。gydF4y2Ba
下跟踪物体遮挡,类似目标的干扰,和一个复杂的环境,DaSiamRPN算法总是使用预定义的目标在第一帧作为模板的跟踪后续帧。的特性信息容易丢失,因为物体外观的变化,导致无法准确获得对象的位置。UpdateNet算法使用模板更新机制来更新每一帧的模板,可以引入噪声污染模板,然后导致跟踪失败。另一方面,“动静”dual-template融合和动态模板自适应更新方法提出了使用静态和动态模板的优点,而且它还可以提供一个良好的跟踪性能,尽管目标遮挡,相似的对象的干扰,图像模糊,和光照条件的变化等。gydF4y2Ba
3.4。Real-timeliness跟踪gydF4y2Ba
该方法的跟踪速度和DaSiamRPN UpdateNet VOT2016算法和OTB100数据集所示gydF4y2Ba表2gydF4y2Ba。DaSiamRPN算法可以运行在110帧每秒(FPS)和176 FPS VOT2016和OTB100数据集,分别。UpdateNet算法只能运行在76和79 FPS。因为UpdateNet算法介绍了模板更新机制来提高性能,跟踪速度明显低于DaSiamRPN算法,但它仍然可以满足实时跟踪的要求。我们的方法实现了运行速度87年和81年的FPS VOT2016 OTB100数据集,分别跟踪速度略高于UpdateNet算法。与UpdateNet算法不同,本文提出的自适应更新策略并不在每一帧的动态更新模板,所以它具有更好的实时性能。gydF4y2Ba
4所示。结论gydF4y2Ba
深入学习对象跟踪算法基于暹罗网络得到了广泛的关注他们的良好的性能在各种指标的测试跟踪数据集。不过,最早的暹罗网络对象跟踪算法使用对象的位置在第一帧图像作为一个固定的模板在整个跟踪,不能应付改变对象的不利影响外观。模板更新机制的引入使得随后的暹罗网络更好的适应对象的任何改变外表,但它也带来了新的问题,即,导致跟踪模板是受到外部噪音的干扰。gydF4y2Ba
为了进一步提高目标跟踪算法的性能,与“动静”dual-template暹罗跟踪融合和动态模板自适应更新在这篇文章中,提出了基于网络DaSiamRPN暹罗的对象跟踪和UpdateNet模板更新网络。新方法结合了静态模板和一个动态目标跟踪的实时更新。应用一种自适应更新策略更新动态模板时,这可以帮助确定更新动态模板通过判断的必要性更新模板和模板污染的可能性,如果模板更新根据两个量化指标:一是当前帧的跟踪结果之间的相似性和动态模板;另一种是没有参考当前帧图像的评价结果。通过这种方式,它可以抑制噪声干扰和污染的不利影响模板的同时适应目标外观的变化。实验结果表明,该方法的鲁棒性和EAO 23和9.0%高于VOT2016数据集的基本算法,分别,精度和成功OTB100数据集增加了0.4%和0.8,分别。最全面、实时跟踪性能得到上述两个大型公共数据集。gydF4y2Ba
有几个重要的阈值自适应模板更新模块的方法,使得有必要收集样本统计测定中的应用,从而增加部署的难度实际系统的新方法。因此,下一步是引入一个无监督的机器学习算法,这样可以实现自适应调节。gydF4y2Ba
数据可用性声明gydF4y2Ba
最初的贡献提出了研究中都包含在这篇文章/gydF4y2Ba补充材料gydF4y2Ba,进一步的调查可以针对相应的作者。gydF4y2Ba
作者的贡献gydF4y2Ba
DS:原创作品草稿,数据管理和可视化。XW:监督、概念化和writing-review和编辑。YM:方法和软件。ND和ZP:调查和验证。所有作者的文章和批准提交的版本。gydF4y2Ba
资金gydF4y2Ba
这项工作是由国家重点研发项目(2018 yfb1308200),中国国家自然科学基金(编号51405154),湖南省自然科学基金(编号2021 jj30251;2018 jj3167),湖南教育部优秀青年项目(18 b217数量),和中国的访问学者项目奖学金委员会(202008430103)。gydF4y2Ba
的利益冲突gydF4y2Ba
作者声明,这项研究是在没有进行任何商业或财务关系可能被视为一个潜在的利益冲突。gydF4y2Ba
出版商的注意gydF4y2Ba
本文表达的所有索赔仅代表作者,不一定代表的附属组织,或出版商、编辑和审稿人。任何产品,可以评估在这篇文章中,或声称,可能是由其制造商,不保证或认可的出版商。gydF4y2Ba
补充材料gydF4y2Ba
本文的补充材料在网上可以找到:gydF4y2Bahttps://www.雷竞技rebatfrontiersin.org/articles/10.3389/fnbot.2022.1094892/full补充材料gydF4y2Ba
引用gydF4y2Ba
Bertinetto, L。Valmadre, J。、Golodetz年代。Miksik, O。,和Torr,P. H. S. (2016a). “Staple: Complementary learners for real-time tracking,” inIEEE计算机视觉与模式识别会议,CVPRgydF4y2Ba(华盛顿特区:IEEE计算机协会),1401 - 1409。doi: 10.1109 / CVPR.2016.156gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Bertinetto, L。Valmadre, J。,戴安娜,j·F。Vedaldi,。,和Torr,P. H. S. (2016b).Fully-Convolutional暹罗网络对象跟踪gydF4y2Ba。可汗:施普林格。doi: 10.1007 / 978 - 3 - 319 - 48881 - 3 - _56gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
博,L。,Yan, J., Wu, W., Zhu, Z., and Hu, X. (2018). “High performance visual tracking with siamese region proposal network,” in2018年IEEE / CVF计算机视觉与模式识别会议(CVPR)gydF4y2Ba。盐湖城犹他:IEEE。gydF4y2Ba
Bolme, d S。,Beveridge, J. R., Draper, B. A., and Lui, Y. M. (2010). “Visual object tracking using adaptive correlation filters,” in2010年IEEE计算机学会计算机视觉与模式识别会议(CVPR),十三至十八6月,2010年gydF4y2Ba。(旧金山,CA;纽约:IEEE), 2544 - 2550。doi: 10.1109 / CVPR.2010.5539960gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。Bhat, G。,Kh一个,F。年代。,Felsberg m (2017)。“生态:有效的跟踪、卷积运算符”gydF4y2Ba2017年IEEE计算机视觉与模式识别会议(CVPR), 2017年7月,第21到26gydF4y2Ba。(檀香山,你好;纽约:IEEE), 6638 - 6646。doi: 10.1109 / CVPR.2017.733gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。海格,G。,Kh一个,F。年代。,Felsberg m (2015)。“基于卷积滤波器特性相关视觉跟踪,”gydF4y2Ba《IEEE计算机视觉国际会议研讨会gydF4y2Ba。(IEEE圣地亚哥):58 - 66。doi: 10.1109 / ICCVW.2015.84gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。海格,G。,Kh一个,F。年代。,Felsberg m (2015 b)。“学习空间正规化相关性过滤器视觉跟踪,”gydF4y2Ba2015年IEEE计算机视觉国际会议(ICCV)gydF4y2Ba。圣地亚哥:IEEE。doi: 10.1109 / ICCV.2015.490gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。海格,G。,Kh一个,F。年代。,Felsberg m (2016 b)。适应性训练集去污:一个统一的配方为歧视视觉跟踪。gydF4y2BaIEEEgydF4y2Ba,1430 - 1438。doi: 10.1109 / CVPR.2016.159gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。海格,G。,Kh一个,F。年代。,Felsberg m (2017 b)。歧视规模空间跟踪。gydF4y2BaIEEE反式。型。肛交。机器智能。gydF4y2Ba39岁,1561 - 1575。doi: 10.1109 / TPAMI.2016.2609928gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Danelljan, M。,Robinson, A., Khan, F. S., and Felsberg, M. (2016a). “Beyond correlation filters: Learning continuous convolution operators for visual tracking,” in欧洲计算机视觉会议上,大会gydF4y2Ba,472 - 488。doi: 10.1007 / 978 - 3 - 319 - 46454 - 1 - _29gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Dunnhofer, M。,年代我monato, K., and Micheloni, C. (2022). Combining complementary trackers for enhanced long-term visual object tracking - ScienceDirect.Vis形象。第一版。gydF4y2Ba122年,104448年。doi: 10.1016 / j.imavis.2022.104448gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
粉丝,H。,l我ng,l。杨,F。楚,P。,Deng, G., Yu, S., et al. (2019). “LaSOT: A high-quality benchmark for large-scale single object tracking,” in《IEEE / CVF计算机视觉与模式识别会议gydF4y2Ba。(长滩,CA), 5369 - 5378。doi: 10.1109 / CVPR.2019.00552gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Galoogahi h·K。Fagg,。,和lucey, S. (2017). Learning background-aware correlation filters for visual tracking.IEEE第一版。SocgydF4y2Ba。2017年,129年。doi: 10.1109 / ICCV.2017.129gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
海升果汁,L。郑,Y。曹,J。,和Cai, Q. (2019). Multi-view-based siamese convolutional neural network for 3D object retrieval.第一版。电工实习。Eng。gydF4y2Ba78年,22岁。doi: 10.1016 / j.compeleceng.2019.06.022gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
汉族,R。,Feng,W。王,美国(2020年)。快速学习空间的正规化和内容了解相关视觉跟踪滤波器。gydF4y2BaIEEE反式。图像的过程gydF4y2Ba29日,7128 - 7140。doi: 10.1109 / TIP.2020.2998978gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
戴安娜,j·F。Caseiro, R。马丁斯,P。,和Batista, J. (2012). “Exploiting the circulant structure of tracking-by-detection with kernels,” in计算机视觉的欧洲会议(大会),7 - 10月,2012年,意大利的佛罗伦萨gydF4y2Ba(Cham: Springer), 702 - 715。doi: 10.1007 / 978 - 3 - 642 - 33765 - 9 - _50gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
戴安娜,j·F。Caseiro, R。马丁斯,P。,和Batista, J. (2015). Highspeed tracking with kernelized correlation filters.TPAMIgydF4y2Ba37岁,583 - 596。doi: 10.1109 / TPAMI.2014.2345390gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
黄,B。徐,T。李,J。,年代hen,Z., and Chen, Y. (2019). Transfer learning-based discriminative correlation filter for visual tracking.模式RecognitgydF4y2Ba。100年,107157年。doi: 10.1016 / j.patcog.2019.107157gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Karakostas,我。Mygdalis, V。Tefas,。,和Pitas, I. (2021). Occlusion detection and drift-avoidance framework for 2D visual object tracking.的迹象。的过程。gydF4y2Ba90年,116011年。doi: 10.1016 / j.image.2020.116011gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
李,Y。,和Zhu, J. (2014). “A scale adaptive kernel correlation filter tracker with feature integration,” in欧洲计算机视觉学报》研讨会——苏黎世,瑞士,8926年9月6 - 7和12卷gydF4y2Ba。(苏黎世),254 - 265。doi: 10.1007 / 978 - 3 - 319 - 16181 - 5 - _18gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
林,t Y。,米一个我re,米。、Belongie年代。Bourdev, L。,G我r年代h我ck, R., Hays, J., et al. (2014). “Microsoft COCO: Common objects in context,” in计算机视觉的欧洲会议(大会)gydF4y2Ba。(苏黎世),740 - 755。doi: 10.1007 / 978 - 3 - 319 - 10602 - 1 - _48gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
刘,Q。,Chen, D., Chu, Q., Yuan, L., Liu, B., Zhang, L., et al. (2022). Online multi-object tracking with unsupervised re-identification learning and occlusion estimation.arXivgydF4y2Ba。1,8。doi: 10.1016 / j.neucom.2022.01.008gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Ly,。,Yang, L., Kong, C., Chang, X., Zhao, S., Cao, Y., et al. (2021). Correlation filters with adaptive convolution response fusion for object tracking."。Bas。系统gydF4y2Ba。228年,107314年。doi: 10.1016 / j.knosys.2021.107314gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
米塔尔,萨阿德·m·A, Bovik, A . c (2013)。“完全失明”图像质量分析器。gydF4y2BaIEEE的迹象。的过程。列托人。gydF4y2Ba20岁,209 - 212。doi: 10.1109 / LSP.2012.2227726gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Nousi, P。,Tr我一个tafyllidou, D., Tefas, A., and Pitas, I. (2020). Re-identification framework for long term visual object tracking based on object detection and classification.的迹象。的过程。gydF4y2Ba88年,115969年。doi: 10.1016 / j.image.2020.115969gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
真实的,E。,年代hlen年代,J., Mazzocchi, S., Pan, X., and Vanhoucke, V. (2017). “YouTube—BoundingBoxes: A large high-precision human-annotated data set for object detection in video,” in《IEEE计算机视觉与模式识别会议。gydF4y2Ba(夏威夷),7464 - 7473。doi: 10.1109 / CVPR.2017.789gydF4y2Ba
Russakovsky, O。邓,J。苏,H。,K一个ruse, J., Satheesh, S., Ma, S., et al. (2015). ImageNet large scale visual recognition challenge. Int. J. Comput. Vis. 115, 211–252. doi: 10.1007/s11263-015-0816-y
苏,H。,Qi, W., Schmirander, Y., Ovur, S. E., Cai, S., and Xiong, X. (2022). A human activity-aware shared control solution for medical human-robot interaction.装配自动化gydF4y2Ba。42岁,388 - 394。doi: 10.1108 / aa - 12 - 2021 - 0174gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
太阳,D。,W一个ng,X., Lin, Y., Yang, T., and Wu, S. (2021). Introducing depth information into generative target tracking.前面。Neurorobot。gydF4y2Ba15日,718681年。doi: 10.3389 / fnbot.2021.718681gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
棕褐色,K。,Xu, T. B., and Wei, Z. (2021). Learning complementary Siamese networks for real-time high-performance visual tracking.j .粘度Commun。形象代表。gydF4y2Ba80年,103299年。doi: 10.1016 / j.jvcir.2021.103299gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Valmadre, J。,Bertinetto, L。,戴安娜,j·F。Vedaldi,。,和Torr,P. H. S. (2017). “End-to-end representation learning for correlation filter based tracking,” inIEEE计算机视觉与模式识别会议,CVPRgydF4y2Ba(IEEE), 5000 - 5008。doi: 10.1109 / CVPR.2017.531gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Voigtlaender, P。Luiten, J。,Torr,P. H., and Leibe, B. (2020). “Siam R-CNN: Visual tracking by re-detection,” in《IEEE / CVF计算机视觉与模式识别会议(CVPR)gydF4y2Ba(IEEE)。doi: 10.1109 / CVPR42600.2020.00661gydF4y2Ba
王,J。,l我u, W., Xing, W., Wang, L., and Zhang, S. (2020). Attention shake siamese network with auxiliary relocation branch for visual object tracking.NeurocomputinggydF4y2Ba400年,120年。doi: 10.1016 / j.neucom.2020.02.120gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
王,问。,张,L。,Bertinetto, L。,胡锦涛,W。,和Torr,P. H. S. (2019). “Fast online object trackingand segmentation: A unifying approach,” inIEEE计算机视觉与模式识别会议,CVPRgydF4y2Ba(IEEE), 1328 - 1338 doi: 10.1109 / CVPR.2019.00142gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
王,W。,Zhang, K., Lv, M., and Wang, J. (2020). Hierarchical spatiotemporal context-aware correlation filters for visual tracking.IEEE反式。CyberngydF4y2Ba。2020年,1 - 14。doi: 10.1109 / TCYB.2020.2964757gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,H。,Chen, J., Nie, G., and Hu, S. (2020). Uncertain motion tracking based on convolutional net with semantics estimation and region proposals.型。Recogn。gydF4y2Ba102年,107232年。doi: 10.1016 / j.patcog.2020.107232gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,H。,Cheng, L., Zhang, J., Huang, W, Liu, X., and Yu, J. (2021). Structural pixel-wise target attention for robust object tracking.数字。的迹象。的过程。gydF4y2Ba1,103139。doi: 10.1016 / j.dsp.2021.103139gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,J。,太阳,J。,王,J。李,Z。,和Chen, X. (2022). An object tracking framework with recapture based on correlation filters and Siamese networks.第一版。电工实习。Eng。gydF4y2Ba98年,107730年。doi: 10.1016 / j.compeleceng.2022.107730gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,L。,Gonzalez-Garcia, A., van de Weijer, J., Danelljan, M., and Khan, F. S. (2019). “Learning the model update for siamese trackers,” inIEEE计算机视觉国际会议(ICCV)gydF4y2Ba,4009 - 4018。doi: 10.1109 / ICCV.2019.00411gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张X。,妈,J。,l我u, H., Hu, H. M., and Yang, P. (2022). Dual attentional Siamese network for visual tracking.显示gydF4y2Ba74年,102205年。doi: 10.1016 / j.displa.2022.102205gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,Y。,l我u, G, Haung, H., Xiong, R., and Zhang, H. (2022). Dual-stream collaborative tracking algorithm combined with reliable memory based update.NeurocomputinggydF4y2Ba480年,39-60。doi: 10.1016 / j.neucom.2022.01.046gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,Y。,W一个ng,T。刘,K。,Zhang, B., and Chen, L. (2021). Recent advances of single-object tracking methods: A brief survey.NeurocomputinggydF4y2Ba455年1 - 11。doi: 10.1016 / j.neucom.2021.05.011gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
张,Z。,和Peng, H. (2019). “Deeper and wider siamese networks for real-time visual tracking,” in《IEEE / CVF计算机视觉与模式识别会议gydF4y2Ba。(长滩,CA), 4591 - 4600。doi: 10.1109 / CVPR.2019.00472gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
朱,Z。,王,问。李,B。吴,W。,Yan, J., and Hu, W. (2018).Distractor-Aware暹罗网络视觉物体跟踪gydF4y2Ba。可汗:施普林格。doi: 10.1007 / 978 - 3 - 030 - 01240 - 3 - _7gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
关键词:gydF4y2Ba对象跟踪、暹罗网络模板更新,动静dual-template融合,深入学习gydF4y2Ba
引用:gydF4y2Ba邓王阳光D, X, Y, Z N和彭(2023)与“动静”dual-template暹罗跟踪融合和动态模板自适应更新。gydF4y2Ba前面。Neurorobot。gydF4y2Ba16:1094892。doi: 10.3389 / fnbot.2022.1094892gydF4y2Ba
收到:gydF4y2Ba2022年11月10日;gydF4y2Ba接受:gydF4y2Ba2022年12月23日;gydF4y2Ba
发表:gydF4y2Ba2023年1月11日。gydF4y2Ba
编辑:gydF4y2Ba
把苏gydF4y2Ba、基金会米兰理工大学、意大利gydF4y2Ba版权gydF4y2Ba©2023太阳,小王,邓和彭。这是一个开放分布式根据文章gydF4y2Ba知识共享归属许可(CC)gydF4y2Ba。使用、分发或复制在其他论坛是允许的,提供了原始作者(年代)和著作权人(s)认为,最初发表在这个期刊引用,按照公认的学术实践。没有使用、分发或复制是不符合这些条件的允许。gydF4y2Ba
*通信:gydF4y2Ba西安,gydF4y2Ba15111388435 @163.comgydF4y2Ba