复杂场景条件下的运动目标检测算法

复杂场景条件下的运动目标检测算法

一、复杂场景条件下的运动目标检测算法(论文文献综述)

李飚[1](2021)在《基于时空滤波与背景建模的弱小目标检测算法研究》文中指出非平稳场景背景由于构成成分复杂多样,同时光照、大气、目标与探测系统相对位置的变化等不可预测因素的影响,使得弱小目标与背景的对比度低目标信号弱,严重影响到探测系统对弱小目标的检测跟踪性能。为了提高非平稳场景下光电探测系统对弱小目标的检测跟踪性能,本文围绕弱小目标检测的关键技术展开研究。首先,对光电成像探测实际中遇到的两类非平稳场景进行背景建模估计与抑制,以提高目标与背景间的对比度、增强目标信号。然后,对经由背景抑制后所获得的差分图像进行时空域目标能量互增强。最后,用改进的弱小目标检测算法对增强后的目标进行检测提取。具体的主要研究工作如下:(1)针对多构成成分非平稳复杂场景,研究提出了基于统计聚类划分的低秩背景建模算法(CLRA)。为了有效抑制由非平稳背景特别是不同成分背景区域交界处的非平稳差异引起的杂波纹理,以降低差分图中的虚警源,提高目标与残留成分对比度,CLRA算法利用图像的统计特性进行区域的自适应聚类,而获得更为平稳的图像区域块,有效地将非平稳场景图像进行区域平稳化,实现更准确的背景低秩优化估计,以及差分图像残留噪声更少、值更低和分布更均匀平坦化,充分有效地抑制起伏非平稳成分对目标的影响。算法对三种典型复杂场景的实验数据结果为:结构相似度均值分别为0.9735、0.8357和0.9776,底噪均值分别为8.7269、13.9324和11.6636,对比度均值分别为10.4446、4.7972和6.4491。实验数据表明CLRA算法取得显着地背景抑制效果:所得的差分图像中有效去除了残留纹理,噪声分布均匀,目标得到显着突出。(2)针对强渐晕非平稳强亮度起伏下的强天空场景,研究提出了基于局部区域背景空间基函数的单像素背景建模(SPA)。在缺乏目标先验知识情况下,为了对在非均匀强渐晕分布随机、强度高、分布范围广且动态起伏变化大,以及强渐晕常常将目标淹没等情形下的强天空场景实现极弱目标检测,SPA算法利用像元邻域构建其背景表示空间基函数,并将强渐晕强起伏背景的建模转化为最优估计问题,获得背景成分和稀疏成分进一步平衡的优化结果,即稀疏成分(候选目标和噪声)得到更加有效的得以析出,从而实现有效地将极弱目标信号与强起伏背景分离。对三种代表性强天空场景实验表明,SPA算法取得很好的抑制背景和增强目标性能,主要体现在:首先,对具有不同的信噪比、速度和运动轨迹特征的目标具有很好的鲁棒性能。实验显示,针对小于等于1.5d B极低信噪比,运动速度达到2像素/帧和做复杂运动轨迹的弱小目标,算法都能够有效地将背景与目标成分分离。其次,残留噪声具有明显的白噪化特征。算法获得的差分图像的残留噪声分布均匀,具有近似于白噪声的频谱。第三,目标得到了显着增强。对三种场景算法获得的信噪比增益平均值分别为6.7709 d B,6.7812 d B,6.6343 d B。相应的背景抑制因子平均值分别为2.8061、1.7039、13.8459。(3)针对强噪声和暂时性目标丢失(遮挡或淹没)提出了自适应时空域能量互增强管道滤波弱小目标检测算法(ASEMEPF)。ASEMEPF算法由本文所提出的自适应时空域能量互增强算法(ASEME)和自适应管道滤波目标检测算法(APFA)有机构成。为进一步抑制前期经由CLRA和SPA算法所得差分图像的非目标成分减少虚警源和增强目标能量,以更有利于后期开展稳定有效的目标检测,提出了ASEME算法,该算法自适应地由图像非目标和目标成分分布特性和统计特性的差异特性来构建自适应梯度倒数滤波器实现进一步的抑制非目标成分和目标能量的互增强。算法对四个代表性场景数据进行实验表明,经ASEME算法能量增强处理,目标对比度均值分别比原差分图像提高了28.41、22.44、47.54和66.48。紧接着,在目标检测环节,为了提高管道滤波算法对强噪声和暂时性目标丢失的鲁棒性能,提出了基于卡尔曼滤波的APFA算法,算法通过将目标预测信息结合已有的目标运动信息和灰度信息实现自适应地进行目标信息补偿、管芯和管径的调整。实验数据显示,整个ASEMEPF算法对四个代表性场景均取得很好的目标检测结果:目标检测率为100%或者趋于100%,误检率、漏检率和虚警率为零或者趋于零;暂时性丢失的目标得以有效估测,目标检测轨迹完整和平滑。

刘步实[2](2021)在《复杂交通场景下轻量化视觉感知方法研究》文中研究指明复杂交通场景的构成要素丰富、目标多元,智能车辆的环境感知技术不仅可以帮助其精确感知和理解周围态势,及时掌握自身行驶状态并与外界环境信息实现交互,还能够有助于促进安全性能的提升。随着以图像、视频为媒介的多媒体技术蓬勃发展,视觉传感设备提供的场景信息更加充裕可靠且成本较低,因此基于视觉的环境感知已成为了智能车辆完成路径规划、决策控制等功能不可或缺的途径之一。其中,轻量化感知方法是在保持精度基础上进一步降低模型复杂度和参数量,旨在减轻计算机存储以及运算量负担,既涵盖了对模型架构压缩等思想的灵活运用,也包含了相应计算效率的探索。这类方法推动了机器视觉、控制科学等技术在移动和嵌入式设备的应用落地,并在智能驾驶、智慧交通等诸多领域都得以广泛应用。本文重点研究如何利用图像处理方法实现更精准的环境感知,运用和设计新颖的轻量化感知结构模型,帮助自动驾驶技术可以在更加便携、易操作的处理平台上实现对高分辨率道路图像的感知与理解,提升智能车辆对于复杂交通场景的判断和辅助控制能力。环境感知的关键挑战来自于系统对高层视觉内容的灵敏解读和判断,从而辅助智能车辆迅速感知交通场景中的空间布局、目标特征等动态信息,为之提供值得信赖且足够精确的执行操作与探测响应的依据。不过,实际交通场景中的道路前景和背景会时刻发生变化,多种复杂目标特征各异且相互关联,即使是同类物体不同实体之间也可能会因为拍摄角度、距离等造成尺度变化或遮挡的情况发生。诸多客观因素都为基于视觉的环境感知方法带来了严苛的考验,使其实现全局的准确理解和信息交互仍有待巩固和提升。因此,本文围绕复杂交通场景视觉感知任务的关键技术进行深入研究与创新,利用基于机器视觉的思想感知不同层级的视觉特征,构建了多种改善环境感知性能的轻量化模型和方法,同时提高其精度及效率。首先,利用轻量化的机器学习分割方法获取图像浅层特征,完成了道路环境感知中的可行驶区域识别与提取。接着,为了更全面地理解道路语义内容,结合轻量化的级联卷积神经网络获取更深层次的图像特征,实现作为环境感知问题中核心解决方案的场景语义分割。在此基础上,为了能够进一步实现对场景中可能存在的车辆障碍物及时地感知和规避,构建了轻量化的车辆目标检测模型。研究成果对于智能车辆的环境感知能力和发展具有实际意义和参考价值。本文的具体研究内容与贡献概述如下:(1)道路场景因其结构的多样性、纹理变化的复杂性和自然曝光的不稳定性,使得基于道路分割的可行驶区域识别方法大多存在信息冗余,并且存在边界丢失、模糊等质量问题。本文提出了一种基于MS-RG混合图像分割模型,该模型在无监督学习方法下提供了更多的位置像素信息,且不依赖于数据量的大小,应用在道路图像分割上完成对目标可行驶区域的提取。引入图像变换增强理论进行预处理,利用超像素算法进行更直接高效地分割,优化多种子点区域生长分割方法,解决不能完整分割问题,有效处理全局与局部像素特征,更好地控制噪音和灰度不平均,使得图像各区域之间的边界信息分割也更加分明,改善了分割方法的鲁棒性和实时性。在道路图像数据集的实验结果表明,本文提出的模型适用性强,相比于其它方法有效地提升了分割准确性和实时性,可准确识别出图像中的道路信息,可以满足实际应用需求。(2)由于深度学习对街道环境的准确认知,卷积神经网络在交通道路场景的应用中取得了巨大的发展。然而,复杂的网络深度、大型数据集、实时需求等都是实现智能驾驶技术迫切需要解决的典型问题。本文提出了一种改进的轻量级实时语义分割网络,利用图像级联网络体系结构,同时考虑道路语义建模及深入到语义层次的道路环境深度理解,使用多尺度分支和级联特征融合单元来提取丰富的多层特征。在本文中,空间信息网络被设计为传输更多关于空间位置和边缘信息的先验知识。在训练阶段的过程中,本文还附加了额外的加权损失函数,优化道路图像语义分割的鲁棒问题,以增强深度学习网络系统的学习过程。这种轻巧的网络可以快速感知道路语义信息并根据分割结果实现对道路场景的环境感知,从而满足了辅助驾驶的需求。在道路数据集的实验结果表明,相比较其他流行的语义分割算法,本文模型对细节信息的处理能力和时效性上都得到了显着的提升。(3)在复杂道路场景下执行车辆障碍物检测任务,车辆目标易受到不同物体实例之间尺度变化以及其他交通目标遮挡等干扰,模型提取的特征属性不一致,尤其是目标物体和小尺度的物体发生漏检、误检问题。为了平衡检测性能和实时需求,本文提出了一种轻量化的基于多视野特征融合的车辆检测模型,采用单阶段多框的目标检测框架,利用不同的任务模块挖掘图像深层次关联信息,减少局部特征丢失,并且保证复杂交通场景中目标障碍物检测的效率。在深层特征上,构建了特征融合模块促进算法对多层特征层的上下文信息传递;在浅层特征上,采用基于多分支卷积和膨胀卷积构建特征金字塔的多视野模块多尺度特征,学习目标车辆障碍物的位置和类别。实验结果表明,本文模型在保证实时性的前提下,不仅提升了复杂交通目标中多尺度、遮挡物的检测性能,提高了环境感知算法的工作效率。

杨宇翔[3](2021)在《基于深度强化学习的目标跟踪算法研究》文中研究说明视觉目标跟踪是计算机领域中的基础研究问题之一,目的是在连续视频序列中对感兴趣目标进行跟踪和标注,并输出感兴趣目标的位置和尺度信息。随着深度学习的快速发展,目标跟踪被广泛应用于智慧交通、无人驾驶、人机交互等领域。因此,目标跟踪具有很好的科学研究和实际应用价值。目前,目标跟踪领域仍然面临巨大的挑战,种类多样的目标以及复杂的跟踪环境,都大大降低了目标跟踪的性能。因此,如何设计出鲁棒的目标跟踪方法能够在复杂环境下进行精准的目标跟踪是当前亟待解决的问题。为了提高复杂环境下目标跟踪算法的鲁棒性,本文基于深度强化学习方法针对目标跟踪中的运动模块、表观模块和更新模块进行了设计与优化,并提出了三种目标跟踪算法。这三种算法分别从扩展目标跟踪动作选择空间、提升跟踪算法对目标判别能力以及跟踪算法更新效率等三个方面进行了研究,提出的跟踪算法能够有效提升复杂环境下的跟踪鲁棒性。本文的主要研究内容和创新如下。(1)针对目标跟踪算法的运动模块,提出了一种基于优化方差下降自适应探索的深度强化学习跟踪算法AEVRNet(Adaptive Exploration Network with Variance Reduced Network)。基于运动模块优化,通过非凸优化和自适应动作探索策略加快算法收敛和扩展动作搜索空间。首先,受到组合置信度上限的启发,设计了一种自适应的探索策略,利用时间和空间知识来进行有效的动作探索并跳出局部最优。其次,将跟踪问题定义为一个非凸问题,将非凸优化引入随机方差下降梯度作为反向传播方法,使得跟踪算法更快收敛,并降低损失值。最后,设计了一个基于回归的动作奖励损失函数,它对目标状态的各个方面更加敏感,能够保留更多目标特征信息。实验结果表明该算法可以有效提升运动模块搜索效率。(2)针对目标跟踪算法的表观模块,提出了一种基于参数空间噪声的实时深度强化学习跟踪算法Noisy OTNet(Noisy Object Tracking Network)。基于表观模块优化,将跟踪问题定义为带有参数空间噪声的深度强化学习问题。首先,设计了一种基于参数噪声的深度确定性策略梯度的噪声网络,可以更好地匹配目标跟踪任务并直接预测跟踪结果。其次,为了进一步提高复杂条件下的跟踪精度,例如目标快速运动和形变情况下,提出了一种自适应更新策略,通过基于上置信度边界算法获取目标时空信息,提高模型更新效率。此外,对于丢失目标的恢复,本文设计了一种基于增量学习的重定位算法。最终,提升跟踪算法的探索能力,并且能够有效应对复杂环境的干扰。实验结果表明该算法可以有效提升表观模块对于目标与背景的判别能力。(3)针对目标跟踪算法的更新模块,提出了一种基于多任务多模型的深度强化学习跟踪算法STKTMM(Student-Teacher Knowledge Transfer Based Multi-Task Multi-Model Tracker)。基于更新模块优化,利用特定任务的领域知识提高基于不同任务的模型跟踪性能。设计不同教师模型分别基于对应任务进行离线训练,特定任务的教师模型在相应的任务上指导在线跟踪的学生模型,提高学生模型对当跟踪目标的判别能力。此外,设计了一个多缓冲区策略,防止学生跟踪器在学习新知识时遗忘旧知识。最后,提出了一种基于知识迁移的自适应在线跟踪模型更新方法,使用教师模型和在线学生模型的网络参数共同更新在线学生模型,提升学生模型更新效率。实验结果表明该算法可以有效提升更新模块更新效率。

张璘[4](2021)在《相控阵机载SAR海面动目标成像算法研究》文中研究指明我国是一个海洋大国,对海上舰船目标的探测不仅涉及到我国经济利益,也关系着国家领主主权和海防安全。相控阵机载合成孔径雷达利用阵列天线空域结构实现等效增加空间维采样频率的目的,从而扩大海域测绘带范围,使得广域海面舰船目标的高分辨率成像成为可能。目前,相控阵机载SAR存在着天线阵列结构复杂、数据运算处理量庞大以及舰船目标成像散焦等问题,影响广域海面动目标成像效率和成像质量。因此本文围绕相控阵机载SAR动目标高分辨成像算法,对天线波束扫描模式、多天线接收数据处理算法、动目标多普勒参数估计和时频分析算法进行深入研究,所取得的主要研究成果如下:第一,针对相控阵机载SAR成像扫描方式的选择,分别采用距离俯仰向扫描和方位向扫描两种模式对宽测绘带场景进行成像。首先,以宽测绘带场景为基础建立相控阵机载SAR成像模型,在发射信号脉冲重复频率有限的条件下,通过理论公式推导出信号处理过程,并建立DBF-SCORE模式和TOPS模式两种成像模型。随后,通过仿真实验和实测数据成像,验证上述两种模式可分别实现距离向波束形成高分辨成像和方位向宽幅快速扫描成像,明确了相控阵机载SAR波束控制所采用的扫描方式,为后续广域海面成像算法研究奠定基础。第二,针对相控阵机载SAR广域海面舰船成像过程中所面临的海量数据存储运算困难的问题,本文从舰船目标分布的稀疏属性入手,提出块稀疏压缩感知动目标成像算法。首先,以传统贪婪OMP算法为基础,建立海面舰船压缩感知成像算法模型,仿真结果表明舰船满足目标稀疏性特点,可以采用压缩感知算法进行成像。随后,利用天线阵列的分集增益以及舰船目标的块稀疏分布属性,提出联合块稀疏压缩感知成像算法。仿真和实测数据成像结果表明,采用块稀疏类算法可以获得较为统一的目标分布图,较大的降低了全景区域成像时间,同时有助于消除海面的虚假目标。第三,针对舰船自身运动引起的图像散焦和模糊问题,提出多普勒参数估计So WVD算法。首先,分析多普勒参数对动目标成像效果的影响,建立多普勒参数信号估计模型。仿真结果表明,传统算法有助于校正目标运动过程中的距离徙动,补偿掉与距离空变有关的方位向相位误差,但运算时间不适用于实时估计。随后,为降低运算复杂度,提出多普勒参数估计So WVD算法。仿真实验验证了该算法的有效性,与传统参数估计算法性能相比,So WVD算法适用于相控阵机载SAR对舰船等小型目标的多普勒参数实时估计。第四,针对不同海情舰船在偏航角、俯仰角和横滚角的三维摆动下存在图像散焦模糊的问题,在动目标自聚焦和时频分析类算法聚焦成像的基础上,提出同步压缩类时频变换算法。首先,采用最大对比度/最小熵自聚焦迭代算法和分块PGA聚焦算法,对实测数据中多艘舰船的模糊图像进一步聚焦,成像结果表明该算法可以很好地降低海杂波旁瓣和海面虚影。随后,建立SAR/ISAR混合成像模型,采用传统时频分析算法对单个舰船进行瞬时时频成像,引入同步压缩类时频变换算子,获得摆动舰船在某一瞬时的聚焦图像。通过仿真实验和实测数据性能参数比较可知,同步压缩类算法可以抵消舰船摆动所造成的图像散焦和模糊,获得高清舰船图像,能够看清舰船结构、尺寸、船头船尾等细致部分。第五,针对运动舰船存在定位误差的问题,利用相控阵天线阵列结构分布均衡的特点,提出用以校正动目标方位向位置的VSAR算法。首先分析了具有径向速度的海面舰船存在方位向位置误差的原因,推导出方位位置误差的数学表达式。随后,建立VSAR算法模型,通过对天线阵列接收数据的相位差进行分析,得出目标径向速度和方位向真实位置估计。仿真实验和实测数据验证了该算法的可行性,成像结果表明VSAR算法可以对动目标进行连续动态观测,实现在多普勒频带内有效区分静动目标,提高判断舰船运动趋势及航行轨迹的能力。

尚晋霞[5](2021)在《显着性目标检测方法及应用研究》文中提出视觉显着性模型主要是模拟人类视觉系统感知场景,在许多视觉任务中得到了广泛的应用,如图像分割、图像检索、目标识别、目标重定位和事件识别等。同时,在计算机视觉应用的驱动下,一些视觉显着性模型旨在识别图像或视频中信息更丰富或更吸引人注意的目标区域,以便进一步处理。因此,如何快速有效的从图像或视频中获取有意义的目标或对象,同时抑制或忽略不感兴趣的区域,即显着性目标检测,已经成为很多视觉任务和应用的一种核心技术和预处理手段。传统的基于自底向上的图像显着性检测算法,主要利用低层视觉特征(颜色、亮度、纹理等)的各种启发式先验线索(如对比度、背景、对象性、中心、紧致性等)突出场景中的显着性目标。然而,面对复杂场景,如背景杂乱或低对比度(目标与背景区域具有相似的视觉外观),归因于缺乏对场景背景或目标性信息的高层语义理解,基于低层视觉特征的显着性检测算法很难准确定位完整的显着性目标。与静态图像相比,视频提供了丰富的序列信息和连续的运动线索,能更好地以动态的方式描述目标的特性。而且,运动线索相比于静态的视觉特征在处理杂乱或复杂场景时,具有更大的优势。因此,传统的基于视频的显着性检测算法,主要利用运动分割辅助或融合空间(图像)显着性识别场景中的显着性目标。尽管如此,由于非刚体目标的复杂运动或间歇性运动、以及附加的动态背景和静态目标的干扰,提取完整且满足时空一致性约束的显着性目标是一个极具挑战的任务。针对上述显着性检测所存在的问题,论文分别对基于图像和视频的显着性目标检测算法进行了深入的分析和研究,提出了新颖且有效的图像和视频显着性目标检测算法。同时,对图像显着性检测算法在智能交通监控中的应用进行了深入的研究,提出了有效的、基于显着性检测指导的夜间车辆头灯识别算法。论文的主要研究内容和成果概括如下:1.提出了基于目标性导向和增强的显着性目标检测算法。针对传统的基于低层视觉特征的图像显着性检测所存在的问题,如背景杂乱或复杂场景,以及目标与背景具有相似的视觉外观时,难以获得准确、完整的显着性目标,提出利用高层视觉特征指导图像显着性检测以提升显着性检测的整体性能。目标建议作为包含一系列候选目标区域的目标性信息,能提供对复杂场景的高层语义理解且最大程度的保留前景目标的完整性,同时抑制背景干扰区域。然而,每一幅图像所获得的目标建议数量不等,而且分割质量变化较大,直接融合所获得的目标建议或许会引入太多背景噪声,特别是在目标建议方法无法预测真实的目标区域时。因此,论文提出了一种融合多个显着性先验线索和高层目标性信息的自底向上的显着性目标检测算法。首先,利用所提的基于互信息的区域一致性方法融合基于背景先验、区域对比度、紧致性假设等多个显着性先验线索,获得初始显着性映射图。然后,考虑到很多已获得的目标建议并不能准确覆盖一个真实的目标,提出利用基于凸函数的优化算法导出(选择)最优的候选目标建议。其中,候选目标建议的优化选择集合了三个因素:1)目标建议在图像中的显着性值;2)目标建议之间的外观相似性;3)目标建议之间的空间距离约束。同时,利用基于稀疏项约束所获得的优化选择参数融合多个候选目标建议,生成对应的目标映射图。最后,利用一个基于图的显着性优化框架,借助于目标性的指导融合目标性映射图和初始的显着性图,同时考虑空间平滑性约束,获得最后的图像显着性映射图。不同的数据集上的实验结果表明,提出的基于目标性导向的图像显着性算法,能更好的抑制背景干扰,同时突出显着性目标的完整性和显着性估计值的一致性。2.提出了基于运动目标属性的显着性目标检测算法。针对传统视频显着性检测中存在的问题,如复杂的场景或杂乱的背景、非刚体目标的间歇性运动和部分运动,无法获得完整且空时一致的显着性目标,提出利用实例层的目标分割与序列图像之间显着性运动估计的互补性定位运动目标,同时抑制动态背景和静态目标的干扰。首先,利用预训练的目标实例分割模型YOLACT++和光流估计模型Flow Net2.0获得当前帧的目标实例和运动矢量估计。同时,基于已获得的运动矢量图,通过显着性检测方法生成当前帧的运动映射图。然而,目标实例分割和显着性运动检测都可能同时存在置信度不高的问题。为了获得准确且有效的运动目标区域,提出利用目标(背景区域)在邻域帧之间以及整个视频序列中所存在的强烈的视觉外观的相关性和一致性,修正和提升目标实例分割和显着性运动检测的结果。具体步骤为:1)基于已构建的邻接关系矩阵,利用不同的关键帧选择策略和最近邻优先原则,通过帧-间稀疏重构迭代、有序地传播所选择关键帧的高质量检测结果到剩余非关键帧,提升初始目标实例分割和显着性运动检测的总体质量,同时避免传统的帧-间一致性传播算法所导致的错误过分累积的问题。2)利用基于乘的整合策略,融合改进后的目标实例分割和显着性运动检测结果,提取同时具有目标属性和运动属性的图像区域,抑制动态背景和静态目标的干扰。3)基于已获得的运动目标的初始信息,利用贝叶斯融合框架,集成通过低秩约束所获得的时间层的运动目标和背景区域的全局特征,进一步提升运动目标估计的全局一致性。然后,利用已获得运动目标和背景区域的先验信息,采用基于测地距离转换的方法完成当前帧的空间显着性估计,以获得空间上更突出、更完整的显着性目标。然后,为了获得空时一致的显着性目标,提出利用一个基于图的能量优化函数,有效融合多个显着性线索,如运动目标线索(时间层的目标信息)、空间显着性线索(空间层的目标信息)以及全局特征,完成显着性估计值的最优指派。不同数据集上定量和定性的实验结果表明,提出的算法能有效抑制场景杂乱和运动复杂情况下,相似背景和静态目标的干扰,同时避免错误的检测结果过度扩散。3.提出基于显着性检测和PHOG特征的夜间车辆头灯检测算法。夜间交通监控场景中,由于车辆距离摄像机远近不同致使监控图像中车辆头灯尺寸和亮度强弱不等。此外,各种反射光(地面、水面、车身或车道标志等)的干扰使得传统的基于模板或阈值化的方法很难检测到亮度微弱、小尺寸的头灯,同时保持头灯的完整形状。为了解决上述问题,论文提出利用基于多尺度的局部显着性检测方法提取候选头灯亮块。然后,为了提高车辆头灯的识别能力同时充分利用头灯的结构信息,通过空间金字塔表述(Space Pyramid Representation,SPR)对候选头灯亮块的梯度映射图进行编码,构造对几何和光学变换不敏感的PHOG(Pyramid Histogram of Oriented Gradients)特征。然后,利用预训练的SVM分类器,基于PHOG特征对候选头灯亮块进行有效分类,准确识别车辆头灯。最后,通过不同的场景对不同的车辆头灯检测方法进行定量和定性的比较,结果表明所提的车辆头灯检测方法能有效的提升头灯检测的准确率,同时抑制各种反射光的干扰。

刘亮[6](2021)在《基于深度学习的视觉运动估计与理解》文中研究指明随着深度学习的高速发展,计算机视觉技术在图像任务中取得了瞩目的成果。近年来,视频的数据量和业务量在监控安防、自动驾驶、互动娱乐、工业视觉等多个领域中呈爆炸式增长,这对人工智能技术在视频中的应用提出了新的需求。然而,将处理静态图像的深度学习方法直接迁移至视频序列任务中,将丢失时间维度的信息建模,从而无法有效地处理视频任务。因此,对视频任务展开深入研究有着重要的科学意义和社会价值。本文聚焦于视觉运动估计与理解领域,按照各项视频任务对信息的加工程度,以由浅及深的顺序展开研究。对于视频任务,现有的研究工作仍然存在诸多挑战:低层次的视觉运动感知任务以空间点或像素点为研究对象,其面临的最大挑战是监督学习标注数据难以获得,以及无监督目标函数的不可靠性;而高层次的视觉运动理解任务以视频中的目标或行为实例为研究对象,其难点在于如何以较低的计算成本实现高效准确的推理精度。针对上述挑战,本文研究低层次的无监督学习的深度估计、光流估计等稠密点的状态估计任务,以及高层次的多目标跟踪和行为检测任务。本文的研究内容与主要创新点如下:1.针对深度估计、光流估计以及运动区域分割等低层次视觉任务,本文利用几何约束提出多任务联合的无监督学习框架,无需标注数据便可对多个任务进行互相协同促进的学习。同时,本文提出对网络估计的深度与光流使用优化方法得到相机自运动,并获得场景的刚性流,进而根据视角合成误差对场景中的运动区域进行区分。通过对运动区域和静止区域引入特有的一致性损失,能够提升各子任务的预测精度。2.针对无监督光流估计任务中损失函数在大运动、遮挡、极端光照条件等复杂场景中不可靠的问题,本文提出了一种新颖的类比学习方法。通过设计各种变换来构造类比样本,以原始样本的预测为类比样本提供更为可靠的监督信号。此外,本文设计了一种高度共享的循环光流网络结构并提出多帧输入下的拓展结构,不仅显着降低了光流网络的参数量与计算量,并且达到了与主流监督学习方法相近的精度与更优的泛化性能。3.针对多目标跟踪任务,本文提出将目标检测、重识别以及运动估计子任务集成为一个无锚点网络,进行多任务联合学习。同时,本文提出循环结构的运动估计分支以及链式记忆推理策略,以较低的额外参数和计算量实现准确的运动估计,从而降低多目标跟踪对复杂关联算法的依赖。此外,本文提出以检测数据集的静态图片训练跟踪网络的方法,从而以较低的训练门槛实现了实时准确的多目标跟踪方法。4.针对视觉运动研究的落地问题,本文对工业装配过程中的运动跟踪与理解任务展开应用研究,提出了数据驱动的轻量级视觉运动跟踪与行为理解系统,以实现对装配过程中操作员手部动作的实时时空检测。在算法层面上,本文提出了以跨帧检测的方法进行逐帧多目标跟踪的算法,融合高频率跟踪器与低频率检测器的预测结果,实现低计算开销的高效目标跟踪。此外,本文提出以通用的方式对图像目标检测和视频行为检测网络分别进行了轻量化修改,进一步促使整个视频分析系统能够在低算力硬件平台上实时运行。对于上述研究内容,本文在视觉运动估计与理解领域取得了出色的研究成果,并在学术界与产业界得到了广泛应用,充分地补充完善了视频运动的前沿探索研究。

杜丽[7](2021)在《面向自动驾驶的场景理解关键技术研究》文中指出随着人类社会的信息化程度逐渐提高,人工智能作为下一代信息技术的核心受到了广泛重视。作为人工智能技术在汽车行业和交通领域的延伸与应用,自动驾驶近年来在学术和工业界都受到了密切的关注。自动驾驶车辆是一个基于计算机、传感器、现代通信、人工智能和自动控制等高新技术,集环境感知、决策规划和多级辅助驾驶等功能为一体的综合系统。研究者们提出了使用成本较低的摄像头完成更多环境感知任务的方案。因此,在当前基于计算机视觉技术的自动驾驶研究中,广泛采用了由感知、规划、决策和控制模块组成的数据驱动的计算框架,且已逐步延伸到开放的交通场景,并通过构建符合驾驶员脑认知过程中注意力、推理、学习和决策机制的基本计算框架,建立功能较完善的、受生物智能启发的自主智能系统。本文针对基于计算机视觉的自动驾驶场景理解涉及的几个关键性技术进行了研究,将实现自动驾驶功能的方法总结为基于规则、端到端学习、直接感知、未来帧预测和脑启发式认知模型五种典型范式。以上述五种范式为基础,本文从路域环境中车辆运动状态的分析出发,逐步深入到整体场景的分析与理解,完成驾驶场景中多目标行为分析的研究。最后,将数据驱动的方式与脑启发认知范式方法相结合,探索视频数据与脑认知数据之间的联系。本文的主要研究内容及创新点包括:1.提出了图像帧级和事件级两种端到端学习的深度神经网络模型,对车辆行驶状态进行分类,采集并标注了真实驾驶环境车辆行驶视频图像数据集,对所提两种方法处理实时视频多类事件检测任务的有效性进行了验证,为该课题未来的研究方向奠定了数据和基准方法的基础;2.以人脑感知预测生理机制与基于深度学习的视频序列预测相关经验为基础,分别提出了模拟人脑逐层信息反馈的多任务联合预测方法和模拟人脑凭借记忆进行预测的未来帧预测方法,完成了对驾驶场景视频图像未来帧及其对应的方向盘角度的预测;3.提出了一种基于视觉交互的分阶段学习的双流架构,通过对图像序列空时信息进行自动分析与反馈,提取类光流信息,自适应地对驾驶场景中多目标的未来状态信息(位置和速度)进行预测。在公开数据集UDACITY上的实验结果表明,所提方法能够在真实的驾驶场景中有效预测目标物体的状态信息;4.提出了一种将单通道脑电信息转换为反映驾驶者注意力集中强度的二维注意力掩模特征图的方法,构建了端到端学习的深度神经网络模型从脑电信号和对应视频数据中提取驾驶员注意力信息,在自建数据集上的实验对视觉表示信息与其诱导产生的脑电信号之间的关联性进行了验证,结果表明增加脑电信号后的预测模型得到的视觉显着性特征图与人眼注意力显着区域结构更为接近,特征分布更具合理性和可解释性。

俞娜[8](2021)在《多摄像头协同的运动目标跟踪方法研究》文中研究说明传统的视频监控技术中大多应用场景都采用单摄像头实现对运动目标的检测和跟踪,利用该方式对目标进行跟踪时,监控视域范围较小,监控设备智能化水平较低且需要耗时较长。当监控视野范围较大时,存在视野重叠视野,难以实现同一运动目标实时连续跟踪。通过当前国内外研究学者的研究成果进行探索,虽解决了运动目标在单摄像头场景中的目标跟踪问题,但是针对多摄像头存在重叠视域范围下的目标跟踪研究成果较少,多视角协同的运动目标检测和跟踪问题丞待解决。因此,本文针对重叠视域范围特征点进行提取与匹配,建立多视角协同的视频监控重叠视域图像视野分界线,研究运动目标在视域范围内的目标可见性判别并对目标交接交接过程进行标识,解决了多视角协同的重叠视域范围运动目标检测和跟踪这一难题,达到了重叠视域范围运动目标实时检测与跟踪的目的。本文的具体研究内容如下:(1)完成了多视角协同重叠视域视频图像的特征点匹配,通过对传统的重叠视域视频图像特征点匹配方法的改进,准确的提取了重叠视域范围内图像特征点,将重叠图像进行有效划分,增加了重叠视域图像之间的关联性,实现了重叠视域范围特征点的精准匹配,为多视角协同重叠视域视频图像特征点匹配提供一种新的思路和方法。(2)建立了视频图像中重叠视域范围之间的视野分界线,实现了运动目标交接。传统的多视角协同视频监控图像在重叠视域场景中不能有效的实现运动目标的交接,容易导致运动目标跟踪丢失,无法实现重叠视域范围运动目标的实时连续跟踪。本文通过提出的特征点提取方法获得重叠视域范围内相同的背景图像特征点,利用图像特征点之间的关联,建立重叠视域之间的视野分界线,实现了多视角协同重叠视域视野的有效区分。(3)实现了同一运动目标的实时跟踪,针对传统的运动目标检测和跟踪方法进行改进,消除运动目标跟踪过程中产生的鬼影问题,当出现与跟踪目标同时运动的干扰目标时,能够有效的进行区分,实现运动目标实时连续的跟踪,为多视角运动目标检测和跟踪提供一种新的思路和方法。通过设置对比试验,本文从运动目标跟踪效果和运动目标跟踪精度两个方面进行了对比试验。在目标跟踪效果方面,重叠视域多视角跟踪算法在三种不同的场景下对运动目标进行跟踪均能成功地实现目标交接与连续跟踪。在目标跟踪精度方面本文算法对运动目标跟踪准确率分别为76%、87%、88%,目标跟踪算法准确率高于文献改进算法准确率。本文提出的方法既能解决对同一运动目标的实时跟踪,又可以解决多视角协同重叠视域范围内的运动目标跟踪距离较近而导致运动目标丢失的问题,有效提高目标跟踪的准确性,为多视角运动目标跟踪提供了一种新的解决方法。

樊向婷[9](2021)在《基于随机有限集的多传感器多目标跟踪算法的研究》文中认为随着传感器监测场景的复杂度进一步提高,单传感器系统已经不能满足监控系统的要求.为了解决复杂场景下目标跟踪存在的问题,将单传感器系统扩展为多传感器系统势在必行.在多传感器系统中的多目标跟踪过程指的是不同的传感器通过协同合作对场景内的目标进行跟踪的过程.每个传感器的性能不同检测到目标的量测信息不同,通过对量测信息的综合处理可提高跟踪精度.其中信息融合是多传感器系统中数据处理研究的核心内容,通过获取分布在场景内不同位置的传感器所产生的独立量测数据,对这些数据进行融合得到目标的有效信息,进而利用有效信息进行滤波从而完成对目标的状态和数目的跟踪估计.然而,随着传感器网络中传感器数量的增加会导致传感器检测到的量测信息的增加,会出现数据爆炸的情况.为了提高多传感器系统的多目标跟踪的能力,国内外学者在近几年对其展开了广泛的研究,本文在随机有限集理论的基础上研究了贪婪算法与量测融合的方法,为了更好地实现所提算法采用粒子滤波的方法进行实现,取得了以下两方面的研究成果:1.为了解决复杂场景下的高速多机动目标的跟踪问题,将交互的思想与多传感器思想相结合,进而衍生出多传感器交互式贪婪势平衡概率假设密度(Multi-sensor Interactive model Greedy Cardinalized Probability Hypothesis Dendity,MS-IMMGreedy-CPHD)滤波器.该滤波器在预测阶段,通过交互式多模(IMM)算法对CPHD滤波中目标的状态、势分布和运动模型同时进行预测;在更新阶段,利用贪婪(Greedy)量测划分机制选取量测子集和拟分区,并通过拟分区量测子集对不同模型下CPHD预测的目标状态和势分布以及模型进行交互式更新.2.针对多传感器多目标跟踪的量测划分问题,在多目标多伯努利滤波(Multi-target Multi-Bernoull,Me MBer)基础上提出量测融合贪婪划分机制.该划分机制首先对不同传感器的量测进行挑选与融合,然后对量测进行量测子集的选取和拟分区的操作.在多伯努利滤波的更新阶段中使用量测融合方法结合贪婪划分机制对量测信息进行操作,利用拟分区后量测子集对目标的后验概率密度进行更新.仿真结果表明,所提量测融合贪婪划分机制能够对多目标的数目和状态进行稳定有效的跟踪.相较于贪婪算法的量测划分,达到相同跟踪性能时跟踪结果的最优子模式分配(Optimal Sub-patten Assignment,OSPA)误差更小且势估计更准确.

代天乐[10](2021)在《复杂遮挡环境下目标检测与跟踪技术研究》文中研究说明近几年,随着计算机视觉技术的兴起,运动目标检测与跟踪技术在军事制导、智能视频监控、智慧城市等多个方面得到了广泛的应用。由于实际应用场景多样性,传统运动目标检测与跟踪算法在很多复杂场景如:动态背景、初始帧存在运动目标、目标间歇性运动、目标形变、目标旋转、背景杂乱、目标遮挡以及尺度变化等场景下,检测与跟踪性能不佳。因此,为了提高传统算法在以上复杂场景中的检测与跟踪性能,论文对传统的运动目标检测与跟踪算法进行了改进,论文所做工作包括:(1)针对传统视觉背景提取算法(Visual Background Extractor,Vi Be)在动态背景、初始帧存在运动目标、以及目标间歇性运动场景下,容易出现误检和漏检等情况。论文提出了一种基于时空样本的背景建模方法,充分结合时域背景建模性能较好的高斯混合模型(GMM)算法以及空域背景建模较好的Vi Be算法的优点,并在前景点检测与背景模型更新上对传统算法进行自适应改进。经实验证明论文算法较传统算法在综合评价指标measure F-上约提高了8%,大大提高了算法在复杂场景下的鲁棒性。(2)针对传统的核相关滤波目标跟踪算法在外观模型建立上采用单一特征,在目标发生形变、目标旋转以及背景杂乱等复杂场景下跟踪精度低等问题。论文提出了一种基于多特征自适应融合的核相关滤波目标跟踪算法。首先分析了不同特征单独响应的峰值图;然后根据不同特征在不同场景下响应峰值图的置信度,采用响应峰值图的次峰主峰比(RSFM)对不同特征分配不同的权重;最后根据融合后的特征进行相关响应确定跟踪目标的位置。经实验证明论文算法在目标发生形变、目标旋转以及背景杂乱等复杂场景下较传统的算法在跟踪精度和跟踪成功率上均有明显的提高。(3)针对传统核相关滤波目标跟踪算法在目标被遮挡以及尺度变化场景下容易导致跟踪丢失等问题。论文提出了一种分块抗遮挡与尺度自适应的核相关滤波目标跟踪算法。当目标被局部遮挡时,论文算法可根据未发生遮挡的子块和全局块联合确定目标的位置;当目标被全局遮挡时,论文算法会自动扩大目标搜索区进行重检测。在跟踪器模型更新上提出了一种遮挡检测机制来自适应的更新模型;在目标发生尺度变化时,论文算法可以根据各个子块的聚合程度来选择相应的尺度因子,进而自适应的调节跟踪器的尺度。经实验表明论文算法在目标遮挡和尺度变化场景下较传统的核相关滤波目标跟踪算法在跟踪精度上约提高了17%和16%,在跟踪成功率上分别提高了20%和13%。

二、复杂场景条件下的运动目标检测算法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、复杂场景条件下的运动目标检测算法(论文提纲范文)

(1)基于时空滤波与背景建模的弱小目标检测算法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究意义及背景
    1.2 国内外研究现状
        1.2.1 弱小目标图像背景建模研究现状
        1.2.2 弱小目标检测技术研究现状
    1.3 面临的主要问题
    1.4 本文研究内容及技术路线
    1.5 本文组织结构
第二章 主成分分析低秩矩阵近似和卡尔曼滤波理论基础
    2.1 矩阵理论相关知识
        2.1.1 矩阵特征值和矩阵特征值分解
        2.1.2 矩阵奇异值和矩阵奇异值分解
        2.1.3 向量范数和矩阵范数
        2.1.4 矩阵内积、低秩矩阵和矩阵算子
    2.2 基于主成分分析的低秩矩阵近似
        2.2.1 基于主成分分析的图像处理模型
        2.2.2 基于鲁棒主成分分析的图像处理模型
        2.2.3 鲁棒主成分分析的优化算法
    2.3 卡尔曼滤波
        2.3.1 卡尔曼滤波的基本模型行
        2.3.2 卡尔曼滤波最优估计的公式推导
        2.3.3 卡尔曼滤波的工作原理
    2.4 小结
第三章 基于统计聚类划分的低秩背景建模
    3.1 引言
    3.2 聚类低秩算法
        3.2.1 图像的平稳性
        3.2.2 基于统计区域的低秩背景建模
    3.3 实验
        3.3.1 实验环境
        3.3.2 实验及评价
    3.4 结论
第四章 基于局部区域背景空间基函数的单像素背景建模
    4.1 引言
    4.2 SPA算法
        4.2.1 影响强天空场景图像质量因素分析
        4.2.2 图像特性分析
        4.2.3 SPA背景模型建模
    4.3 实验
        4.3.1 实验环境
        4.3.2 质量评估
        4.3.3 定量评估
    4.4 结论
第五章 自适应时空域能量互增强管道滤波弱小目标检测
    5.1 引言
    5.2 梯度倒数滤波与管道滤波原理
        5.2.1 梯度倒数滤波原理
        5.2.2 管道滤波检测原理
    5.3 ASEMEPF目标检测算法
        5.3.1 自适应时空域能量互增强
        5.3.2 管道自适应
        5.3.3 目标检测算法
    5.4 实验
        5.4.1 实验环境
        5.4.2 目标时空域能量互增强实验
        5.4.3 遮挡情况下APFA鲁棒性能实验
        5.4.4 目标检测对比试验
    5.5 结论
第六章 总结与展望
    6.1 本文工作总结
    6.2 本文主要贡献和创新工作
    6.3 不足与展望
致谢
参考文献
攻读博士学位期间取得的成果

(2)复杂交通场景下轻量化视觉感知方法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 研究背景与意义
    1.2 研究现状分析
        1.2.1 智能驾驶车辆发展现状
        1.2.2 可行驶区域识别算法研究
        1.2.3 场景语义分割算法研究
        1.2.4 道路车辆检测算法研究
        1.2.5 研究现状总结与难点分析
    1.3 论文主要创新点
    1.4 论文研究内容与框架
    1.5 本章小结
2 交通场景环境感知相关工作概述
    2.1 基于视觉的环境感知任务
    2.2 深度学习原理
        2.2.1 卷积神经网络
        2.2.2 经典网络模型
        2.2.3 网络学习框架
    2.3 轻量化感知的图像处理方法
        2.3.1 图像语义分割
        2.3.2 目标检测任务
    2.4 本章小结
3 轻量化的无监督可行驶区域识别方法研究
    3.1 引言
    3.2 多视觉的特征提取算法
        3.2.1 超像素视觉特征
        3.2.2 基于聚类的区域分割算法
    3.3 基于多区域的轻量化道路识别模型
        3.3.1 道路图像增强
        3.3.2 基于多种子点的像素提取
        3.3.3 构建道路分割模型
    3.4 实验与性能分析
        3.4.1 测试数据集与评价指标
        3.4.2 实验结果与分析
    3.5 本章小结
4 轻量化的尺度感知语义分割方法研究
    4.1 引言
    4.2 基于级联感知的语义分割网络
        4.2.1 基于信息感知的空洞卷积
        4.2.2 基于上下文的金字塔池化
        4.2.3 图像级联特征网络
    4.3 基于双分支的轻量化语义分割模型
        4.3.1 空间信息网络
        4.3.2 加权损失函数
        4.3.3 框架整体结构
    4.4 实验与性能分析
        4.4.1 测试数据集与评价指标
        4.4.2 实验设置
        4.4.3 实验结果与分析
    4.5 本章小结
5 轻量化的多视野车辆目标检测方法研究
    5.1 引言
    5.2 基于回归的目标检测算法
        5.2.1 单阶段多框预测网络
        5.2.2 候选区域生成
        5.2.3 边框回归与损失函数
    5.3 基于多模块的轻量化车辆检测模型
        5.3.1 特征融合模块
        5.3.2 多视野特征提取模块
        5.3.3 框架整体结构
    5.4 实验与性能分析
        5.4.1 测试数据集与评价指标
        5.4.2 实验设置
        5.4.3 实验结果与分析
    5.5 本章小结
6 总结与展望
    6.1 研究工作总结
    6.2 研究展望
参考文献
作者简历及攻读博士学位期间取得的研究成果
学位论文数据集

(3)基于深度强化学习的目标跟踪算法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 绪论
    1.1 论文背景与意义
    1.2 国内外研究现状
        1.2.1 基于相关滤波器的目标跟踪算法
        1.2.2 基于深度学习的目标跟踪算法
        1.2.3 基于深度强化学习的目标跟踪算法
    1.3 目标跟踪面临的挑战
    1.4 论文的主要工作
    1.5 论文的结构安排
2 目标跟踪理论基础
    2.1 单目标跟踪流程
    2.2 深度强化学习
    2.3 目标跟踪训练与测试数据集
    2.4 目标跟踪性能评价
        2.4.1 跟踪速度评价
        2.4.2 跟踪精确性评价
        2.4.3 跟踪成功率评价
        2.4.4 跟踪鲁棒性评价
    2.5 本章小结
3 基于优化方差下降的自适应探索深度强化学习跟踪方法
    3.1 引言
    3.2 优化方差下降自适应探索深度强化学习算法
        3.2.1 基于优化方差下降的网络梯度更新策略
        3.2.2 基于CUCB的自适应动作探索策略
        3.2.3 基于回归的动作奖励损失函数
        3.2.4 跟踪算法流程设计
    3.3 实验与结果分析
        3.3.1 实验设置
        3.3.2 定量分析实验
        3.3.3 定性分析实验
        3.3.4 消融实验
        3.3.5 其他数据集实验结果
    3.4 本章小结
4 基于参数空间噪声的深度强化学习目标跟踪方法
    4.1 引言
    4.2 参数空间噪声深度强化学习目标跟踪算法
        4.2.1 基于参数空间噪声深度强化学习网络模型
        4.2.2 基于UCB时空特征的自适应模型更新策略
        4.2.3 基于增强学习的目标重定位方法
        4.2.4 跟踪算法流程设计
    4.3 实验与结果分析
        4.3.1 实验设置
        4.3.2 定量分析实验
        4.3.3 定性分析实验
        4.3.4 消融实验
        4.3.5 其他数据集实验结果
    4.4 本章小结
5 基于多任务多模型迁移学习的深度强化学习跟踪方法
    5.1 引言
    5.2 多任务多模型迁移学习的深度强化学习跟踪算法
        5.2.1 多任务多模型网络框架
        5.2.2 多缓冲区存储策略
        5.2.3 基于学生-教师知识迁移跟踪
        5.2.4 跟踪算法流程设计
    5.3 实验与结果分析
        5.3.1 实验设置
        5.3.2 定量分析实验
        5.3.3 定性分析实验
        5.3.4 消融实验
        5.3.5 其他数据集实验结果
    5.4 本章小结
6 总结和展望
    6.1 论文总结
    6.2 工作展望
参考文献
作者简历及攻读博士学位期间取得的研究成果
学位论文数据集

(4)相控阵机载SAR海面动目标成像算法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题背景及研究的目的和意义
    1.2 国内外相控阵雷达的研究现状及分析
        1.2.1 国外相控阵雷达主要发展阶段研究
        1.2.2 国内相控阵雷达发展情况
    1.3 机载SAR动目标成像研究现状
    1.4 本文的主要内容与结构安排
第2章 相控阵机载SAR成像机理研究
    2.1 引言
    2.2 SAR动目标成像基本理论及回波模型建立
    2.3 DBF-SCORE波束控制成像方法
        2.3.1 DBF-SCORE俯仰向波束控制原理
        2.3.2 俯仰向自适应Capon谱估计法
        2.3.3 方位向非均匀PRF采样重构算法
        2.3.4 仿真实验与结果分析
        2.3.5 实测数据与结果分析
    2.4 TOPSAR方位向扫描成像方法
        2.4.1 TOPSAR方位向波束控制原理
        2.4.2 TOPSAR扫描模式成像算法
        2.4.3 仿真实验与结果分析
    2.5 本章小结
第3章 海面舰船动目标压缩感知成像算法研究
    3.1 引言
    3.2 舰船目标CS成像机理
        3.2.1 海面舰船的正交匹配追踪算法
        3.2.2 仿真实验与结果分析
    3.3 块稀疏压缩感知成像算法
        3.3.1 海面舰船的块稀疏BOMP成像算法
        3.3.2 仿真实验与结果分析
    3.4 块稀疏贝叶斯学习BSBL成像算法
        3.4.1 海面舰船的块稀疏BSBL成像算法
        3.4.2 仿真实验与结果分析
    3.5 联合块稀疏JBOMP成像算法
        3.5.1 海面舰船的联合块稀疏JBOMP成像算法
        3.5.2 仿真实验与结果分析
        3.5.3 实测数据与结果分析
    3.6 本章小结
第4章 海面舰船动目标的多普勒参数估计及自聚焦
    4.1 引言
    4.2 多普勒参数估计
        4.2.1 Radon-Wigner估计多普勒参数
        4.2.2 SoWVD变换估计多普勒参数
        4.2.3 仿真实验与结果分析
    4.3 舰船目标自聚焦成像
        4.3.1 最大对比度/最小熵算法
        4.3.2 分块PGA自聚焦算法
        4.3.3 实测数据与结果分析
    4.4 舰船目标时频分析瞬态像
        4.4.1 传统时频类成像法
        4.4.2 仿真实验与结果分析
        4.4.3 实测数据与结果分析
    4.5 同步压缩时频变换成像法
        4.5.1 同步压缩SST-CWT变换
        4.5.2 同步压缩SST-Chirplet变换
        4.5.3 同步压缩SST-STFT变换
        4.5.4 同步压缩时频变换的误差分析
        4.5.5 仿真实验与结果分析
        4.5.6 实测数据与结果分析
    4.6 本章小结
第5章 海面舰船动目标的方位向定位算法
    5.1 引言
    5.2 基于VSAR的海面舰船动目标定位算法
        5.2.1 VSAR算法概述
        5.2.2 VSAR算法运动目标成像模型
        5.2.3 VSAR算法运动目标定位机理
    5.3 仿真实验与结果分析
    5.4 实测数据与结果分析
    5.5 本章小结
结论
参考文献
攻读博士学位期间发表的论文及其它成果
致谢
个人简历

(5)显着性目标检测方法及应用研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 基于图像的显着性目标检测
        1.2.2 基于视频的显着性目标检测
        1.2.3 夜间交通场景头灯检测
    1.3 本文的主要研究内容和章节安排
第2章 基于目标性导向和增强的图像显着性检测
    2.1 引言
    2.2 相关研究工作与技术
    2.3 基于图像的显着性目标检测算法
        2.3.1 生成初始显着性映射图
        2.3.2 生成目标映射图
        2.3.3 生成显着性目标映射图
    2.4 实验结果与分析
        2.4.1 实验设置
        2.4.2 不同方法的定性与定量比较
    2.5 本章小结
第3章 基于运动目标属性的视频显着性检测
    3.1 引言
    3.2 相关研究工作与技术
        3.2.1 视频显着性检测
        3.2.2 基于目标建议的语义实例分割
    3.3 基于视频的显着性目标检测算法
        3.3.1 初始处理
        3.3.2 显着性目标估计
        3.3.3 显着性映射图生成
    3.4 实验结果与分析
        3.4.1 实验设置
        3.4.2 不同方法的定性与定量比较
        3.4.3 所提方法的局限性
    3.5 本章小结
第4章 基于显着性区域分割和PHOG特征的车辆头灯检测方法
    4.1 引言
    4.2 相关研究工作与技术
    4.3 夜间车辆头灯检测算法
        4.3.1 基于多尺度的局部显着性检测的候选头灯亮块提取
        4.3.2 生成候选头灯亮块的PHOG特征
        4.3.3 基于PHOG特征的候选头灯亮块分类
    4.4 实验结果与分析
        4.4.1 实验设置
        4.4.2 不同方法的定性与定量比较
        4.4.3 所提方法的局限性
    4.5 本章小结
第5章 总结与展望
    5.1 本文研究工作总结
    5.2 工作展望
参考文献
攻读学位期间取得的研究成果
致谢

(6)基于深度学习的视觉运动估计与理解(论文提纲范文)

致谢
摘要
Abstract
1 绪论
    1.1 研究背景和意义
    1.2 研究问题与挑战
    1.3 研究内容与主要贡献
    1.4 本文组织结构
2 相关文献综述
    2.1 低层次视觉运动研究现状
        2.1.1 任务数据与可视化方法
        2.1.2 非深度学习方法的启示
        2.1.3 监督深度学习方法研究
        2.1.4 非监督的深度学习方法研究
    2.2 高层视觉运动研究现状
        2.2.1 多目标跟踪研究现状
        2.2.2 行为识别与检测研究现状
    2.3 本章小结
3 融合立体感知的场景点运动估计
    3.1 引言
    3.2 问题描述
    3.3 自监督光流估计与深度估计
        3.3.1 自监督信号构建
        3.3.2 基础网络架构
        3.3.3 自监督优化目标
    3.4 融合三维感知的多任务联合运动估计
        3.4.1 显式相机自运动估计
        3.4.2 场景运动区域分割
        3.4.3 损失函数与学习流程
    3.5 实验结果
        3.5.1 实验设置
        3.5.2 评测指标
        3.5.3 子任务实验结果与分析
    3.6 本章小结
4 类比学习的自监督光流估计
    4.1 引言
    4.2 高度共享的循环光流网络
        4.2.1 高性能光流网络设计思想
        4.2.2 共享循环结构设计
        4.2.3 多帧模型拓展
        4.2.4 多帧模型的自监督训练
    4.3 复杂条件的光流类比学习
        4.3.1 自监督类比学习框架
        4.3.2 类比任务的变换形式
        4.3.3 总体目标函数
    4.4 实验结果
        4.4.1 数据集介绍
        4.4.2 实验设置
        4.4.3 评测指标
        4.4.4 与主流方法对比
        4.4.5 消融实验
        4.4.6 跨数据集泛化
    4.5 本章小结
5 多任务联合学习的多目标跟踪
    5.1 引言
    5.2 基于无锚点检测的多目标跟踪
        5.2.1 深度多目标跟踪框架
        5.2.2 基于无锚点模型的共享思路
    5.3 无锚点的链式多目标跟踪
        5.3.1 无锚点跟踪网络设计
        5.3.2 多任务损失函数
        5.3.3 使用目标检测数据集训练
        5.3.4 链式记忆推理
        5.3.5 贪婪跟踪算法实现
    5.4 实验结果
        5.4.1 实验设置
        5.4.2 评测指标
        5.4.3 与主流方法对比
        5.4.4 消融实验
    5.5 本章小结
6 工业装配过程中的时空运动检测
    6.1 引言
    6.2 任务描述
        6.2.1 问题说明
        6.2.2 数据采集说明
    6.3 轻量级运动跟踪分析
        6.3.1 轻量级无锚点跟踪网络
        6.3.2 跨帧检测的多目标跟踪
        6.3.3 行为检测与重建
    6.4 实验结果
        6.4.1 数据说明
        6.4.2 实验设置
        6.4.3 检测模块测试
        6.4.4 跟踪模块测试
        6.4.5 行为检测模块测试
    6.5 本章小结
7 总结与展望
    7.1 本文工作总结
    7.2 未来工作展望
参考文献
作者简历
攻读博士学位期间的主要学术成果

(7)面向自动驾驶的场景理解关键技术研究(论文提纲范文)

摘要
ABSTRACT
符号对照表
第一章 绪论
    1.1 研究背景和意义
    1.2 基于计算机视觉的自动驾驶系统功能实现方法
        1.2.1 基于规则的感知范式
        1.2.2 端到端的学习范式
        1.2.3 直接感知范式
        1.2.4 未来帧预测范式
        1.2.5 脑启发认知范式
    1.3 论文的研究内容及章节安排
        1.3.1 主要研究内容
        1.3.2 本文的组织结构及章节安排
第二章 基于深度网络的车辆行驶状态分类
    2.1 Campus20数据集
    2.2 图像帧级的车辆行驶状态分类
        2.2.1 模型结构及学习过程
        2.2.2 基于局部平衡策略的数据重排
        2.2.3 重加权数据平衡方法
        2.2.4 小结
    2.3 事件级的车辆行驶状态预测
        2.3.1 事件级车辆行驶状态预测网络
        2.3.2 实验结果与分析
    2.4 本章小结
第三章 驾驶场景下的未来信息预测
    3.1 引言
    3.2 端到端学习的未来帧预测
        3.2.1 模型结构及学习方法
        3.2.2 实验结果与分析
    3.3 双模态未来信息预测
        3.3.1 问题定义及模型结构
        3.3.2 实验结果与分析
    3.4 本章小结
第四章 基于自适应视觉交互的多目标未来状态预测
    4.1 目标任务
    4.2 多目标未来状态预测网络
        4.2.1 双流预测模型架构
        4.2.2 自适应视觉交互多目标未来状态预测网络
    4.3 实验结果与分析
        4.3.1 目标检测验证
        4.3.2 基于反馈机制的动态信息生成
        4.3.3 在线状态预测
    4.4 本章小结
第五章 驾驶场景视觉注意力区域预测
    5.1 引言
    5.2 脑电数据采集
    5.3 基于视觉注意的脑电特征提取
    5.4 FocusNet模型
        5.4.1 基于空间特征学习的选择性注意机制
        5.4.2 基于双向空时特征学习的直觉推理过程
        5.4.3 算法模型学习
    5.5 实验结果与分析
        5.5.1 基于视频图像的FOA区域检测
        5.5.2 基于双模态数据的FOA区域检测
    5.6 本章小结
第六章 总结与展望
    6.1 本文总结
    6.2 研究展望
参考文献
致谢
攻读学位期间发表的学术论文目录

(8)多摄像头协同的运动目标跟踪方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景
    1.2 国内外研究现状
        1.2.1 多摄像头协同方法研究现状
        1.2.2 运动目标检测研究现状
        1.2.3 运动目标跟踪方法研究现状
    1.3 研究目的和意义
    1.4 论文的技术路线
    1.5 论文的章节安排
第2章 单摄像头的运动目标检测与跟踪方法
    2.1 运动目标检测方法
        2.1.1 背景差分法
        2.1.2 帧间差分法
        2.1.3 光流法
        2.1.4 Vibe算法
        2.1.5 算法比较
    2.2 单摄像头运动目标跟踪方法
        2.2.1 基于目标轮廓信息的跟踪
        2.2.2 基于目标特征信息的跟踪
        2.2.3 基于目标所在的区域信息跟踪
        2.2.4 基于目标模型信息的跟踪
    2.3 本章小结
第3章 多摄像头重叠视域的图像融合与目标交接方法
    3.1 重叠视域范围图像特征点融合方法
        3.1.1 图像特征点提取算法
        3.1.2 图像特征点匹配
    3.2 基于多视角重叠视域的目标交接方法
        3.2.1 特征融合匹配目标交接法
        3.2.2 三维坐标信息目标交接法
        3.2.3 模型目标交接法
        3.2.4 视野分界线生成目标交接法
    3.3 基于均值漂移的多视角头协同目标跟踪算法
    3.4 本章小结
第4章 重叠域特征点提取及视野分界线的生成
    4.1 基于多视角重叠视域范围内的特征点提取方法
        4.1.1 多视角重叠视域范围的生成
        4.1.2 基于Harris-SIFT算法的重叠视域特征点提取算法
    4.2 基于投影不变量的视野分界线生成方法
        4.2.1 视野分界线构建方法
        4.2.2 基于投影不变量的视野分界线生成方法
    4.3 实验分析
        4.3.1 重叠视域特征点检测及匹配实验
        4.3.2 视野分界线生成实验
    4.4 本章小结
第5章 多视角重叠视域内运动目标检测与跟踪
    5.1 运动目标可见性判别与目标交接
        5.1.1 运动目标可见性判别
        5.1.2 运动目标交接
    5.2 改进的Vibe运动目标检测方法
    5.3 基于均值漂移算法的运动目标跟踪方法
    5.4 实验分析
        5.4.1 运动目标跟踪效果对比
        5.4.2 运动目标跟踪精度对比
    5.5 本章小结
第6章 论文的总结
    6.1 总结
    6.2 论文的创新点
    6.3 论文中存在的研究不足和未来展望
参考文献
个人简介
致谢

(9)基于随机有限集的多传感器多目标跟踪算法的研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    §1.1 课题的研究背景与意义
    §1.2 国内外研究现状
        §1.2.1 粒子滤波研究现状
        §1.2.2 多目标跟踪的研究现状
        §1.2.3 机动目标跟踪研究现状
        §1.2.4 贪婪算法的研究现状
        §1.2.5 量测融合的研究现状
    §1.3 论文的主要工作与内容安排
第二章 多传感器多目标跟踪的理论基础
    §2.1 引言
    §2.2 随机有限集
    §2.3 CPHD滤波算法
    §2.4 Me MBer滤波算法
    §2.5 贪婪算法
    §2.6 本章小结
第三章 基于交互式CPHD的多传感器多机动目标跟踪
    §3.1 引言
    §3.2 多传感多机动目标模型
    §3.3 MS-IMM-Greedy-CPHD多目标跟踪
        §3.3.1 MS-IMM-Greedy-CPHD预测
        §3.3.2 贪婪算法(Greedy)量测子集的划分
        §3.3.3 贪婪算法下路径的选取和CPHD更新
    §3.4 MS-IMM-Greedy-CPHD多目标跟踪方法的实现
    §3.5 数值实验
        §3.5.1 仿真设置
        §3.5.2 仿真实验
    §3.6 本章小结
第四章 基于量测融合贪婪多传感器多目标跟踪的研究
    §4.1 引言
    §4.2 MS-F-Greedy-Me MBer多目标跟踪
        §4.2.1 MS-F-Greedy-Me MBer预测
        §4.2.2 多传感器数据关联与量测融合
        §4.2.3 利用量测融合贪婪算法量测子集划分
        §4.2.4 利用量测融合贪婪算法形成拟分区P
        §4.2.5 MS-F-Greedy-Me MBer更新
    §4.3 数值实验
        §4.3.1 仿真设置
        §4.3.2 仿真实验
    §4.4 本章小结
第五章 总结与展望
    §5.1 本文研究工作的总结
    §5.2 未来展望
参考文献
致谢
作者在攻读硕士期间的主要研究成果

(10)复杂遮挡环境下目标检测与跟踪技术研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 运动目标检测国内外研究现状
        1.2.2 目标跟踪算法国内外研究现状
    1.3 课题研究存在的难点分析
    1.4 本文工作和章节安排
第2章 运动目标检测与跟踪算法分析
    2.1 引言
    2.2 运动目标检测算法
        2.2.1 帧间差分法
        2.2.2 高斯混合模型
        2.2.3 ViBe算法
    2.3 相关滤波目标跟踪算法
        2.3.1 DSST目标跟踪算法
        2.3.2 KCF目标跟踪算法
    2.4 本章小结
第3章 复杂环境下改进的ViBe运动目标检测算法
    3.1 引言
    3.2 常见的复杂情况分析
    3.3 改进的ViBe运动目标检测算法
        3.3.1 时空样本一致性的背景模型建立
        3.3.2 像素点时空复杂度的自适应前景阈值
        3.3.3 自适应背景模型更新机制
    3.4 实验结果与分析
        3.4.1 CDnet数据集
        3.4.2 定性实验结果分析
        3.4.3 定量实验结果分析
    3.5 本章小结
第4章 基于多特征自适应融合的核相关滤波目标跟踪算法
    4.1 引言
    4.2 多特征分析
        4.2.1 HOG特征
        4.2.2 CN特征
        4.2.3 LBP特征
    4.3 自适应特征融合
    4.4 算法流程
    4.5 实验结果与分析
        4.5.1 实验评价指标
        4.5.2 定性分析
        4.5.3 定量分析
    4.6 本章小结
第5章 复杂遮挡环境下改进的核相关滤波目标跟踪算法
    5.1 引言
    5.2 遮挡和尺度变化分析
    5.3 目标分块定位和尺度自适应设计
        5.3.1 目标分块设计与定位
        5.3.2 尺度自适应设计
    5.4 模型更新与目标重检测
    5.5 算法整体流程
    5.6 实验与结果分析
        5.6.1 定性分析
        5.6.2 定量分析
    5.7 本章小结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间取得的成果
致谢

四、复杂场景条件下的运动目标检测算法(论文参考文献)

  • [1]基于时空滤波与背景建模的弱小目标检测算法研究[D]. 李飚. 电子科技大学, 2021
  • [2]复杂交通场景下轻量化视觉感知方法研究[D]. 刘步实. 北京交通大学, 2021(02)
  • [3]基于深度强化学习的目标跟踪算法研究[D]. 杨宇翔. 北京交通大学, 2021(02)
  • [4]相控阵机载SAR海面动目标成像算法研究[D]. 张璘. 哈尔滨工业大学, 2021(02)
  • [5]显着性目标检测方法及应用研究[D]. 尚晋霞. 四川大学, 2021(01)
  • [6]基于深度学习的视觉运动估计与理解[D]. 刘亮. 浙江大学, 2021(01)
  • [7]面向自动驾驶的场景理解关键技术研究[D]. 杜丽. 北京邮电大学, 2021(01)
  • [8]多摄像头协同的运动目标跟踪方法研究[D]. 俞娜. 桂林理工大学, 2021(01)
  • [9]基于随机有限集的多传感器多目标跟踪算法的研究[D]. 樊向婷. 桂林电子科技大学, 2021(02)
  • [10]复杂遮挡环境下目标检测与跟踪技术研究[D]. 代天乐. 长春理工大学, 2021(02)

标签:;  ;  ;  ;  ;  

复杂场景条件下的运动目标检测算法
下载Doc文档

猜你喜欢