基于噪声和阴影抑制多模态背景模型的运动目标检测

基于噪声和阴影抑制多模态背景模型的运动目标检测

一、基于噪声与阴影抑制多模态背景模型的运动物体检测(英文)(论文文献综述)

左超,陈钱[1](2022)在《计算光学成像:何来,何处,何去,何从?》文中研究说明计算光学成像是一种通过联合优化光学系统和信号处理以实现特定成像功能与特性的新兴研究领域。它并不是光学成像和数字图像处理的简单补充,而是前端(物理域)的光学调控与后端(数字域)信息处理的有机结合,通过对照明、成像系统进行光学编码与数学建模,以计算重构的方式获取图像与信息。这种新型的成像方式将有望突破传统光学成像技术对光学系统以及探测器制造工艺、工作条件、功耗成本等因素的限制,使其在功能(相位、光谱、偏振、光场、相干度、折射率、三维形貌、景深延拓,模糊复原,数字重聚焦,改变观测视角)、性能(空间分辨、时间分辨、光谱分辨、信息维度与探测灵敏度)、可靠性、可维护性等方面获得显着提高。现阶段,计算光学成像已发展为一门集几何光学、信息光学、计算光学、现代信号处理等理论于一体的新兴交叉技术研究领域,成为光学成像领域的国际研究重点和热点,代表了先进光学成像技术的未来发展方向。国内外众多高校与科研院所投身其中,使该领域全面进入了“百花齐放,百家争鸣”的繁荣发展局面。作为本期《红外与激光工程》——南京理工大学专刊“计算光学成像技术”专栏的首篇论文,本文概括性地综述了计算光学成像领域的历史沿革、发展现状、并展望其未来发展方向与所依赖的核心赋能技术,以求抛砖引玉。

曹景军[2](2021)在《基于深度学习的双孢菇采摘机器人视觉系统研究》文中研究表明双孢菇是最常见的食用菌品种之一,其种植方式逐渐从传统的小规模个体栽培向规模化生产的智能工厂转变。在双孢菇智能工厂中,大多数生产工序已实现机械化和自动化,但采收成熟的双孢菇以及品质分级仍然主要依靠人工手动完成。人工采摘与品质分级劳动强度大、成本高并且十分枯燥。双孢菇自动采摘与品质分级成为该产业中的迫切需求。视觉系统是采摘机器人中的一项重要组成部分,开展双孢菇采摘机器人视觉系统研究对实现双孢菇自动化采摘及品质分级具有重要作用。本文围绕双孢菇自动采摘与自动品质分级的产业需求,重点研究了视觉系统中的多模态目标检测和轻量级品质分级核心算法,并搭建了双孢菇采摘机器人视觉系统,为实现双孢菇自动化采摘及品质分级提供了有力技术支撑。概括而言,本文的主要研究成果包括:(1)构建了双孢菇图像数据集合。为了提高双孢菇目标检测算法性能,构建了具有2300幅图像的双孢菇多模态目标检测数据集合,为了自动识别双孢菇品质等级,构建了具有1200幅图像的双孢菇品质分级数据集合,为开展相关研究提供了数据基础。(2)提出了一种多模态注意力融合网络进行双孢菇检测。该网络通过融合双孢菇可见光和深度图像特征来提取更全面的信息,采用多尺度架构增加感受野。使用注意力机制自适应地对特征通道进行标定,使网络关注于更重要的信息。当某个模态信息发生较大变化或者缺失时,通过模态间信息互补的方式,提升了检测器在光线较强和阴影条件下的准确性与健壮性。(3)提出了一种轻量级神经网络算法解决双孢菇品质分级问题。为了提高双孢菇品质分级效率,提出了一种压缩模块,该模块的主要设计思路是将串行的下采样操作和卷积运算转换成并行结构,基于该压缩模块,构建了一种轻量级神经网络‘Light Net’来解决双孢菇品质分级问题。所提出的网络具有更少的参数量和计算量,并且分级精度达到了97.50%。该网络通过提取双孢菇图像特征,自动将双孢菇分成优质和劣质两个级别,劣质中包括畸形和锈斑等情况。同时,为了测试该算法的泛化能力,在茭白品质分级图像数据集合上开展实验,分级精度达到95.62%,实验结果证明该网络可以拓展应用于其他有关农产品品质分级的任务中。(4)搭建了用于双孢菇采摘的机器视觉系统。设计并实现了双孢菇三维空间定位方法与双孢菇采摘路径规划方法,研发了双孢菇采摘机器人视觉系统,并将该视觉系统与双孢菇采摘机器人硬件装置进行集成,执行20组实验对视觉系统进行测试,实验结果证明了该视觉系统可以精确地检测与定位双孢菇。通过上述工作,本文对双孢菇自动采摘与品质分级问题进行了深入研究,研究结果表明:提出的多模态注意力融合网络提升了双孢菇检测性能。提出的轻量级神经网络具有更低的时间复杂度和空间复杂度,并且保持了相当的双孢菇品质分级精度。并将研发的视觉系统与双孢菇采摘机器人硬件装置进行了集成,实验结果证明了该视觉系统的准确性与有效性,为双孢菇自动采摘与品质分级提供了有力技术支撑。

许玉云[3](2021)在《基于微气囊的柔性触觉传感器阵列及对象识别研究》文中认为在智能机器人、康复医疗和人机交互等非结构化环境中,作业环境的触觉感知科学问题,得到了学术界的广泛关注。触觉感知是增强机器人作业自主性,以及其“赋能”的关键技术。触觉传感器作为智能机器人感知外部环境的媒介,是机器人完成智能、精细作业任务时不可缺少的一员,也是实现人机安全交互的关键。触觉传感器蕴含的科学问题,以及其技术的挑战性,吸引了国内外专家持续不断地开展理论研究和技术攻关。本课题围绕触觉传感器感知外部环境的一系列科学技术问题,分析目标表面形貌、目标柔软性等触觉特征,提出构建感知接触分布力的微气囊柔性阵列传感器,探讨触觉传感器的传感机理。运用卷积神经网络和长短期记忆神经网络等深度学习方法,开展了基于微气囊传感器触觉信息的目标接触面形状、静态接触状态和运动状态识别问题研究。具体的研究内容与相关工作如下。(1)触觉特征感知机理研究。从应用场景和任务类型的需求出发,探寻触觉的表达形式。法向接触力Fz信号,经滤波、傅里叶变换等处理后,分别提取Fz信号频域和时域特征,判定操作目标的柔软性;基于目标表面形貌的不同,探测手指操纵目标的接触区域和接触力分布规律,提取接触力分布特征,实现目标表面形貌识别;采用深度学习算法,融合接触力分布特征,实现目标滑移状态判定。(2)微气囊柔性触觉传感器特性研究。运用材料力学和弹性力学理论,采用解析法,系统分析了气囊传感器敏感单元及其阵列的静力学特性,揭示了外载荷与气囊内压间存在线性关系的物理属性,探讨了微气囊结构尺寸对传感器性能的影响,获得了气囊内部直径与传感器灵敏度,气囊壁厚、内部高度与传感器灵敏度极限间的关系。理论研究成果为触觉传感器结构优化和性能提高,提供了坚实的理论依据,具备明显的工程应用价值。(3)微气囊柔性阵列传感器研制。在触觉特征感知和微气囊柔性阵列触觉传感器理论研究的基础上,研制出微气囊柔性阵列触觉传感器。论文详述了微气囊柔性阵列触觉传感器制备工艺及其装配流程,阐述了传感器硬件以及上位机配置,建立了触觉传感器信号采集实验系统,测试了微气囊柔性传感器各项性能指标。测试结果显示,微气囊柔性传感器分辨率不低于0.26%,量程不小于26N,灵敏度优于60.8 hpa/N,非线性度小于3.07%F.S.,迟滞率为9.779%F.S.,传感器具备寿命长和良好重复性等优异性能。(4)基于力触觉信息的目标静态接触状态识别和分类研究。详细研究了不同接触状态下微气囊柔性传感器气压值阵列信号的分布特点。构建了微气囊柔性阵列传感器触觉图像数据集,利用卷积神经网络提取触觉图像的空间特征,解决了目标静态接触状态的分类问题。测试集结果显示,采用卷积神经网络技术,目标静态接触状态分类的准确率,能够达到96%以上。研究结果表明卷积神经网络泛化特征提取功能,能够有效提高操作目标分类的准确度。(5)基于力触觉信息的目标运动状态识别和分类研究。借助微气囊柔性阵列传感器触觉图像序列信息,探讨了不同动态工况下触觉传感器气压值的变化特点,采用卷积-长短时期记忆复合网络结构,提取触觉图像序列的时空特征,解决了目标运动状态识别的问题。实验结果表明,卷积-长短时期记忆复合神经网络模型,动态行为分类的准确率能够达到92%,为提高灵巧手操纵稳定性探明了一条可行的技术路径。本文研究工作的特色和亮点体现在,依据微气囊结构敏感单元的感知机理分析,制备新型微气囊柔性传感器阵列,解决了智能机器人感知的关键技术问题;传感器信息的触觉特征研究,为智能机器人识别和稳定操纵对象奠定了夯实的理论基础;基于深度学习方法,实现目标物与柔性触觉传感器阵列间的静态接触状态和运动状态的有效识别,可进一步提高智能机器人抓取、操纵目标的精度。

姜珊[4](2021)在《视频监控系统中的行人异常行为检测方法研究》文中进行了进一步梳理智能视频监控中对于维护社会公共安全的秩序发挥着重要的作用,在视频中如何对行人异常行为进行检测是计算机视觉领域的重要研究方向。虽然在行人异常行为检测中已经有很多研究学者取得了一定的研究成果,但是由于在复杂环境变化下行人行为的运动特征信息提取较难,导致研究行人行为异常检测进展缓慢。基于此,本文针对ViBe算法在高动态背景变化下产生闪烁像素点、阴影、鬼影对行人运动目标提取不准确的问题,采用一种基于原ViBe算法的基础上改进型的ViBe算法。随后,在研究基本卷积神经网络和长短时期记忆网络的结构和功能的基础上,采用一种基于3D卷积神经网络与LSTM神经网络相融合的行人奔跑异常行为检测模型。具体总结如下:1)在行人运动目标的提取中,ViBe算法容易受到高动态背景变化下环境的影响,为解决此问题,利用一种改进型的ViBe算法。算法设计中,采用背景动态的变化定义检测闪烁程度的矩阵,设置自适应阈值半径设计出阈值自适应更新策略;利用RGB-HSV色彩空间转换进行阴影检测判断设计器;借助基于相关系数特性比较直方图相似性的方法检测鬼影。通过实验数值比较表明,该算法计算复杂度较低,鲁棒性较好,能够有效的提取较为完整的行人运动目标。2)针对监控视频中对行人奔跑异常行为识别不准确,不能较好的把奔跑异常行为的空间和时间维度上的特征有效结合的现象,利用改进型ViBe算法结合深度学习网络结构,采用了一种适合行人奔跑异常行为检测的3D-CNN和LSTM融合模型方法。该融合模型利用3D-CNN获取行人运动目标在空间上的特征,LSTM利用对时间的记忆功能来获取行人运动目标在时间序列上的行为特征,最后采用Softmax进行分类。实验数据表明,该方法对检测行人奔跑异常行为的准确率得到了有效的提升。

潘安[5](2020)在《高分辨率大视场快速傅里叶叠层显微成像方法研究》文中进行了进一步梳理傅里叶叠层显微成像术(Fourier ptychographic microscopy,FPM)是新一代计算成像技术和定量相位成像技术。兼具了相位恢复和相干合成孔径的思想,它可以解决传统显微成像中分辨率与视场相互制约的问题,无需机械扫描能获得十亿像素级图像,近年来已被成功应用于数字病理学等领域。本论文系统地介绍了FPM显微成像技术在光学显微成像技术发展历程上的重要地位,介绍了FPM的基本理论和发展方向,针对目前尚存的系统误差、分辨率极限不明确、图像采集效率低等若干关键问题提出解决方案,提高了测量精度、成像分辨率和成像效率,实现了毫米级成像视场、亚波长量级成像分辨率和单次曝光的时间反演成像。论文主要工作和创新点如下:1.搭建了一套基于平板R/G/B LED阵列照明的FPM成像系统,验证了FPM技术的诸多功能如高分辨率、大视场、像差恢复、景深延拓、定量相位成像等。解决了LED强度不均匀问题,提出了一系列的数据预处理方法,能够有效地抑制噪声并消除杂散光的影响。针对实际中多种误差的混合,提出了无需先验信息的混合系统误差矫正算法(SC-FPM),显着提升了原始FPM重建算法对系统误差的鲁棒性,研究了渐晕效应的影响并提出了对应的两个解决策略。最终总结出了一套完整的无伪影的FPM成像方法。2.在高分辨率FPM成像方面,搭建了基于半球形数字聚光镜实现亚波长分辨率的FPM成像系统(SRFPM)。该技术最终实现了基于4×/0.1NA物镜合成至1.05NA,视场14.6 mm2,使用465 nm光波实现分辨率达到244 nm,景深0.3 mm,对应空间带宽积(Space-bandwidth product,SBP)为24500万像素。该平台具有亚波长分辨率、大视场、高能量利用率等诸多优势,相比于传统基于4×/0.1NA物镜的明场成像,SRFPM扩宽了65倍的SBP。与基于平板LED照明的传统FPM相比,SBP也从原先9700万像素提升至2亿4500万像素,提升到约2.5倍。与基于40×/0.6NA物镜科勒照明下的非相干成像相比,SRFPM同时恢复出了强度和相位图像,SBP提升了245倍。3.在快速FPM成像方面,提出了基于离焦图像快速FPM成像方法(s FPM),可以实现动态的时间反演成像。针对稀疏样品只需采集单幅环形光照明的离焦图像,针对稠密样品也只需要采集两幅非对称的环形光照明图像,通过双相机共光路的方式仍可以实现两倍分辨率的单次曝光实时成像。尽管该工作牺牲了暗场图像的采集,分辨率只提升两倍,但是由于采用20×/0.4NA物镜,有效NA仍然有0.8,可以满足大多数生物应用需求。4.在具体应用方面,参与搭建了基于并行FPM的96通道高通量生物细胞培养成像系统(96Eyes)。该系统主要存在三个方面的工程和技术难点:如何实现低成本的物镜设计、不同培养板的离焦程度和同一培养板不同通道的离焦问题以及由半月形培养液引起的失真、场曲和波矢失配问题。详细分析和阐述了失真、场曲和波矢失配问题及解决方法,提出了自适应波矢校正算法(AWC-FPM算法),该算法能够自适应地校正波矢失配问题,解决了低冗余信息下剧烈像差的稳定恢复和栅格噪声问题,配合数字重聚焦校正场曲实现了无伪影的高成像质量,未来该系统具有广阔的市场前景。

王佳荣[6](2020)在《面向自动驾驶的多传感器三维环境感知系统关键技术研究》文中研究表明环境感知作为自动驾驶的关键环节,是行车安全性和智能性的保障。先进的三维环境感知系统能够及时地探测到车辆、行人、障碍物、道路等影响行驶安全性的外部事物,并准确地获取其三维位置、尺寸、行驶方向、几何形状、类别等信息,为后续的决策与控制环节提供依据。单一的检测手段或传感器很难对复杂场景进行鲁棒地感知,而利用多传感器优势互补,则能获取更加全面、兼容的行驶环境信息,从而满足自动驾驶系统对可靠性、精准度的需求。近年来,深度学习在信息处理方面取得了突破性进展,基于神经网络的识别、分割、检测算法性能突出,为多传感器三维环境感知系统的研究提供了新的方法和思路。基于此,论文采用三维激光雷达和可见光单目相机,结合深度神经网络,围绕多传感器标定、3D点云与RGB图像融合、三维目标检测、三维语义分割等关键技术,开展了理论分析、方法研究、技术实现、实测验证等工作,主要研究内容如下:(1)三维环境感知系统多传感器标定方法研究针对以三维激光雷达和单目RGB相机作为传感装置的行车环境感知系统,分析异构传感器独立标定、联合标定的原理及模型;设计系列标定方案,搭建实验系统;借助Matlab、Robot Operating System、Autoware等工具,解算出激光雷达与相机的内部、外部参数矩阵,统一坐标系并构建映射模型;完成3D点云与RGB图像的空间对齐、配准,并分析标定、配准对后续算法的指导作用。(2)基于多阶段互补融合的多传感器三维目标检测方法研究针对多模态数据融合粗糙、三维目标检测鲁棒性差的问题,提出了一种基于多阶段互补融合的三维目标检测算法。以激光雷达点云和相机RGB图像为输入,采用两阶段检测框架:(预处理)、初级预测、精细回归,顺序执行数据解析、特征提取、候选框推荐和三维边界框细化任务。创新性地采用多阶段融合策略(预融合、锚框融合、候选框融合)以最大限度地利用多模态数据的优势。其中,提出了RGB-Intensity表示形式,将反射强度编码到图像上,丰富光谱信息,增强输入表征。设计了元素注意力模块,以自适应地决定不同模态特征对网络的“贡献”,突出关键信息,抑制无用干扰。提出了跳跃融合法,支持中间特征层交互的同时引入侧连接,使融合结果兼具完整性和强语义。在权威评测数据集上的实验表明,该算法优于大部分同类型算法,可准确、近乎实时地预测目标的类别、三维位置、三维尺寸、运动方向等信息。(3)级联增强型三维小目标检测方法研究针对复杂城市场景下行人、骑自行车者等小目标检测精度低的难点,提出了一种级联增强型三维小目标检测算法。创新性地应用级联迭代策略,将经典的两阶段检测框架扩展至三阶段:区域建议子网、弱检测子网、强检测子网。利用前一级子网的输出训练下一级更高质量的检测子网,配合递增的训练交并比阈值,以改善过拟合和质量不适配问题,逐级渐进地“锁定”小目标、优化边界框。同时,借鉴图像分割方法,在特征提取网络中引入空洞卷积和多孔空间金字塔池化,以生成能够充分表征小目标的高分辨率、强语义特征图。该算法在KITTI基准上取得了先进的结果,在面对特征较少、外形缺失的目标时表现尤佳。(4)基于点云密度增强和多重注意力引导的三维目标分割和检测方法研究针对点云稀疏、非均匀,特征提取难,且无法表达相似形状物体差异和小、远目标轮廓等问题,提出了一种基于点云密度增强和多重注意力引导的分割、检测算法。其以点云为主要输入,可选择性地添加图像作为补充,由前景分割和候选框生成(Part-1)、点云密度增强(Part-2)、语义分割和边界框细化(Part-3)三部分组成。多任务共享大部分参数,互相监督和辅助。其中,创新性地设计了轻量型逐点注意力模块和通道注意力模块,以自适应地强化“骨架”和“可辨别性”信息,帮助特征提取网络生成更具代表性、针对性的表征。提出了一种新颖的点云密度增强组件,采用距离优先策略,结合K-means聚类算法,基于单目图像生成包含目标信息的伪点云,隐式地利用图像的颜色和纹理信息来平衡点云密度分布、丰富稀疏目标特征。在公开数据集上的大量实验表明,该算法先进、有效,近乎实时,具有出色的远距离、小目标检测性能和良好的可扩展性。

张愚[7](2020)在《基于场景理解和深度学习的滞留物识别和异常行为检测方法研究》文中指出滞留物检测和识别是计算机视觉领域的重要研究课题之一,在公共场所和人群密集地区,未被检测到的滞留物可能会威胁到行人的生命财产安全,因此需要对于视频进行智能监控和自动识别。在现实生活中,当一个场景中出现滞留物,能够快速检测出并识别,能够进行有效预警,对于城市管理和安全有巨大作用。背景复杂性、光照变化、低质量图像和遮挡等场景复杂问题,使得滞留物检测和识别非常具有挑战性。同时,滞留物检测缺乏对于其拥有者的关联性分析,并且在低质量图像和视频情况下的物品分类,没有良好的解决方法。因此,本文在传统方法和深度学习方法的基础上,提出了多个滞留物检测和识别的算法,并且通过对滞留物的分析,可以检测到相关行人的异常行为,主要工作如下:(1)针对滞留物及其与行人之间关联性,利用目标追踪算法,提出了一种基于连通区域信息的算法。现有的相关滞留物算法只是关注滞留物本身,缺乏对其关联性的行人进行分析,无法获取到滞留物的所有者,并且对于滞留物缺乏类别分析。因此我们的算法利用改进的相关滤波算法进行行人追踪、同时利用多重方向背景模型进行行人和静态目标检测,利用追踪行人和物品分离时刻的连通区域进行滞留物检测。与此同时,利用主成分分析与欧式距离的结合进行滞留物识别。利用几何仿射不变矩阵和欧式距离结合的邻近算法将滞留物与物品库中的样本图像的匹配得到识别结果。识别结果可用于进一步分析行人的活动和意图,如根据滞留物的类型确定滞留物是故意的危险物品还是无意中丢失的物品。而且,在VISOR和CAVIAR公共数据集上取得了良好的表现,检测准确率优于现有方法。(2)针对复杂场景中静态目标,在不同场景的意义不同,缺乏多尺度判断,提出了一种基于场景理解的滞留物检测算法。滞留物检测的场景人流量大和场景复杂,并且静态目标在不同的场景中拥有不同意义,并非都是滞留物和有危害的目标。对此本方法,首先采用多特征融合算法对静态目标进行检测。然后,通过深度学习方法重新检测静态目标,以确定被滞留目标的位置和类别。最后,提出了一种基于多尺度场景理解的有效语义信息,用于确定滞留的目标,同时可以利用语义判断方式分析该滞留物所有者的异常行为。实验结果表明该算法在PETS2007、PETS2006、CDNET2014和ABODA数据集上都取得了良好的效果,能够在不同复杂场景中都拥有较高的检测准确率,泛化性能力较强。(3)针对低质量视频和图像的滞留物物品分类、目标信息不完整的物品分类,提出了基于图像超分辨重建的细粒度物品分类算法。不同监控设备,拍摄出的视频与图像质量有差异,特别是在较大的公共场所中,拍摄设备难以将远景和场景中所有的信息完整收入视频和图像中,这些不完整的信息,会影响目标的分类。首先进行图像质量分析,利用多个评价指标对于图片进行分析,判断图片或者视频的质量是否达到细粒度物品识别的需求。然后进行图像超分辨重建,提升图像质量。最后利用我们建立的滞留物包类数据集对双线性池化细粒度物品分类算法进行训练,并在不同数据集上进行检测。实验表明,图像质量对于细粒度物品分类算法有巨大影响,通过图像超分辨率算法进行图像质量提升能提高细粒度物品分类的成功率,并且更加精细的物品分类。在PETS2006、2007和ABODA数据集上进行了不同质量图像下的物品分类对比,高质量图像下能够获取更好的分类准确率。

郑曲乐[8](2020)在《基于视觉的目标检测与跟踪算法研究》文中提出目标检测和跟踪作为计算机视觉领域中极为重要的内容,不仅在日常生活中给人们带来很多便利和安全,同时在智能医疗和军事作战领域也有着广阔的应用前景,因此,该领域的相关研究受到国内外众多学者和机构的重视。本文主要针对目标检测和跟踪过程中存在的光线变化、背景扰动、尺度变化和目标遮挡问题进行了研究,对传统的目标检测和跟踪算法进行了改进和优化。本文主要工作及贡献如下:1.多信息融合的ViBe算法:本文针对三帧差分法对目标进行检测过程中,用二维OTSU算法来代替人工设定阈值,使得阈值能够随检测目标的场景不同而自行选择,提高了三帧差分法的检测精确度,使得目标轮廓提取的结果更加完整。针对ViBe算法在对背景建模时仅采用图像的灰度特征,导致目标和背景颜色相近场景中,目标的检测精度较其他场景低的情况,使用HSV颜色空间的V分量来代替ViBe算法中的灰度特征,在不增加算法计算量的同时,提高了颜色相近背景场景下的检测精度。同时受SOBS算法启发,对ViBe算法背景模型更新策略中判断前景还是背景的欧氏距离公式进行替换,提高了检测的精确度。在对ViBe算法进行颜色特征融合后,与上一步中改进的三帧差分法获取的目标轮廓(纹理特征)进行融合,再对融合后的图像进行形态学处理,实验表明该多信息融合的目标检测算法对目标有良好的检测效果,同时改善了检测过程出现的空洞现象。2.跟踪窗口尺度自适应:由于KCF算法需要对目标区域进行人工框定,本文在视频第一帧引入1部分改进的目标检测算法,实现目标跟踪过程中目标区域的自动检测。同时KCF算法的跟踪框大小在目标发生形变或尺度变化的情况下不能改变,为此引入SIFT算法中的尺度金字塔思想,对检测到的目标区域构建不同尺度的金字塔,根据最适宜大小的金字塔确定当前视频帧中跟踪框的大小,缩小尺度空间的搜索区域,提高算法运行速度,并使得跟踪框大小自适应目标,提高了跟踪的精确度。3.融合SIFT特征提取的KCF算法:针对KCF算法对于目标被遮挡的情况跟踪效果变差,甚至随遮挡时间变长跟踪丢失的问题,本文引入HOG特征与SIFT特征相融合的融合特征算法。首先利用三帧的Bhattacharyya系数对当前帧中目标是否出现遮挡进行检测,当检测到遮挡时,构建当前帧目标区域和后续帧的融合特征模型,并对特征模型进行匹配,直至匹配结果出现响应峰值,检测到目标区域,完成目标的重跟踪。实验表明,改进后的算法在目标被遮挡时,有较好的跟踪效果,而且当目标从遮挡恢复为完整目标后,依然可以成功跟踪目标。

杨国萍[9](2020)在《基于动态背景建模的视频监控中环境异常检测》文中研究说明环境异常检测是指对引起监控场景内环境发生变化的人或物的检测。自然环境监控下的异常检测存在较多的干扰因素,如风、光照变化、水纹起伏以及雾气引起的图像低对比度等,包含这些干扰因素的场景背景相对来说是属于动态的。动态的背景给背景建模带来较大的挑战,本课题就如何在动态场景中准确高效地检测到监控内的环境异常变化展开研究,主要工作如下:1.研究分析当前主流的背景建模方法,并对各类型背景建模方法在不同应用场景下的检测结果和性能表现进行深入的实验对比分析,比较各类型算法的性能优劣。2.分析了视频监控中常见的外部环境影响因素,并详细探讨了雾气及阴影这两种常见的外部影响因素。提出了一种改进的暗通道去雾方法,该方法结合上下采样的方法提高了暗通道去雾算法滤波速度,同时该方法还采用一种分区域计算有雾图像大气光值的方法。实验结果表明,改进的去雾算法与原算法相比,在处理速度以及去雾效果上都有明显提升。在去除阴影时,利用GMM背景建模对光照变化等因素的抑制作用,分割得到包含阴影的前景运动目标;然后在此分割的基础上利用HSV颜色空间的阴影模型检测前景区域内阴影,并结合轮廓检测方法,去除前景目标的因光照边缘轮廓,准确得到不含阴影的前景目标。3.提出一种参数自适应的高斯混合背景模型,该方法利用前帧的检测结果来分析当前场景中环境因素的状况,通过前景离散程度计算实现参数阈值的自适应调整。实验结果表明,与经典高斯混合模型背景建模方法相比,改进的方法对自然环境下的噪声干扰更具鲁棒性,适合动态背景下的环境异常检测。

荆静[10](2020)在《基于图像处理的轨旁异物入侵检测研究》文中进行了进一步梳理以往在对铁路和道路两旁的监控视频中的异物进行入侵检测时,多以人工主动监测为主,在遇到突发状况时很难做到及时有效的提醒。随着网络系统的发展,如果能开发出针对监控视频中异物入侵的实时检测算法,就能够大大提高发现和处理异常情况的速率。本文针对这些问题,对关于铁路监控视频中运动目标的检测及跟踪的相关方法进行了改进:(1)由于Vibe算法在视频图像的背景建模中具有很大优势,因此本文以Vibe作为轨道入侵异物的主体检测算法。但是Vibe在视频图像背景建模过程中容易产生拖影,针对此问题提出了一种基于改进LaBGen-P的自适应Vibe检测算法。该算法与LaBGen算法不同之处在于:不需要任何的训练周期降低算法复杂性,建立运动量检测窗口时考虑到了整个空间领域内的像素去除原有算法的局部性,计算运动量时是以像素迭代建立子集提高运动量计算准确度。之后把LaBGen-P运用到Vibe算法的背景模型初始化阶段,可以有效解决Vibe算法在背景建模过程中存在拖影的问题。同时对于在前景分割阶段容易出现的空洞等问题,本文采用了调整空间领域自适应阈值的方法进行改善。(2)针对一些算法在进行目标检测时,会将运动目标(轨旁异物)的阴影一起检测出来作为前景目标输出的问题,本文采用了基于Horprasert的颜色估计模型进行阴影去除。通过概率密度估计方法计算像素在RGB颜色通道上的期望值和实际颜色值,然后将其分解为亮度失真和颜色失真两部分,分别与设定的阈值进行比较,判断是否属于阴影。(3)针对一些算法在对轨道监控视频中运动目标(轨旁异物)进行跟踪时,可能存在目标被遮挡等情况,从而容易丢失目标。本文提出基于CamShift和Vibe的融合算法,对图像中的样本进行随机提取,提升了目标跟踪算法的鲁棒性。

二、基于噪声与阴影抑制多模态背景模型的运动物体检测(英文)(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、基于噪声与阴影抑制多模态背景模型的运动物体检测(英文)(论文提纲范文)

(1)计算光学成像:何来,何处,何去,何从?(论文提纲范文)

0 引言
1 计算光学成像:何来?
    1.1 成像系统的雏形
    1.2 光学成像系统的诞生——金属光化学摄影
    1.3 第一次成像革命——感光版光化学摄影
    1.4 第二次成像革命——胶卷光化学摄影
    1.5 第三次成像革命——数码相机
    1.6 第四次成像革命——计算成像?!
2 计算光学成像:何处?
    2.1 功能提升
        2.1.1 相位成像
        2.1.2 光谱成像
        2.1.3 偏振成像
        2.1.4 三维成像
        2.1.5 光场成像
        2.1.6 断层(体)成像
        2.1.7 相干测量
    2.2 性能提升
        2.2.1 空间分辨
        2.2.2 时间分辨
        2.2.3 灵敏度
        2.2.4 信息通量
    2.3 成像系统简化与智能化
        2.3.1 单像素成像
        2.3.2 无透镜成像
        2.3.3 自适应光学
        2.3.4 散射介质成像
        2.3.5 非视域成像
        2.3.6 基于场景校正
3 计算光学成像:何去?
    3.1 优势
        3.1.1“物理域”和“计算域”的协同
        3.1.2 潜在的“通用理论框架”
    3.2 弱点
        3.2.1 成本与代价
        3.2.2 数学模型≈甚至于≠物理过程
        3.2.3 定制化vs标准化
        3.2.4 技术优势vs市场需求
    3.3 机会
        3.3.1 科学仪器
        3.3.2 商业工业
        3.3.3 国防安全
    3.4 威胁
4 计算光学成像:何从?
    4.1 新型光学器件与光场调控机制
    4.2 高性能图像传感器的发展
    4.3 新兴的数学与算法工具
    4.4 计算性能的提升
        4.4.1 专用芯片
        4.4.2 新材料和新器件
        4.4.3 云计算
        4.4.4 光计算
        4.4.5 量子计算
    4.5 人工智能
5 结论与展望

(2)基于深度学习的双孢菇采摘机器人视觉系统研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景
    1.2 国内外研究现状
        1.2.1 目标识别与目标检测技术研究现状
        1.2.2 目标定位技术研究现状
        1.2.3 农业机器人视觉系统研究现状
    1.3 研究目的与意义
    1.4 研究思路与内容
        1.4.1 主要研究思路
        1.4.2 主要研究内容
    1.5 研究的创新点
    1.6 论文组织结构
第二章 相关理论基础及开发工具
    2.1 机器学习理论
        2.1.1 机器学习方法
        2.1.2 过拟合与欠拟合
        2.1.3 超参数与验证集
        2.1.4 优化算法
        2.1.5 学习方式
    2.2 卷积神经网络
    2.3 反向传播
    2.4 深度学习框架
第三章 数据集合构建
    3.1 双孢菇目标检测图像数据集合构建
        3.1.1 光学系统
        3.1.2 数据采集与整理
        3.1.3 数据标注
        3.1.4 数据增广
    3.2 双孢菇品质分级图像数据集合构建
    3.3 品质分级算法泛化能力验证数据集合构建
        3.3.1 光学系统
        3.3.2 数据采集
        3.3.3 数据预处理
第四章 基于深度卷积神经网络的双孢菇目标检测
    4.1 单模态双孢菇目标检测
        4.1.1 基于CenterNet检测器的双孢菇检测
        4.1.2 基于注意力融合检测器的双孢菇检测
    4.2 多模态双孢菇目标检测
        4.2.1 多模态注意力融合网络架构
        4.2.2 网络训练
    4.3 实验结果对比分析
第五章 基于轻量级神经网络的双孢菇品质分级
    5.1 卷积运算计算量与参数量
    5.2 压缩模块
    5.3 轻量级神经网络LightNet
    5.4 网络训练
    5.5 实验结果对比分析
    5.6 泛化能力测试
第六章 双孢菇采摘机器人视觉系统原型
    6.1 系统总体设计
    6.2 系统模块设计
    6.3 目标三维空间定位设计与实现
    6.4 采摘路径规划方法设计与实现
        6.4.1 多区域采摘路径规划方法
        6.4.2 行顺序采摘路径规划方法
    6.5 系统集成与测试
        6.5.1 边缘计算平台对比分析
        6.5.2 系统环境配置
        6.5.3 系统集成
        6.5.4 系统测试
第七章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
作者简历

(3)基于微气囊的柔性触觉传感器阵列及对象识别研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景和意义
    1.2 触觉传感器研究现状
        1.2.1 柔性触觉传感器的应用
        1.2.2 触觉传感器敏感单元的主要感知类型
        1.2.3 触觉传感器的性能指标和设计优化
        1.2.4 触觉传感器在机械手上的集成
    1.3 论文主要研究内容
    1.4 论文结构安排
第2章 触觉传感器触觉特征感知原理
    2.1 触觉特征类型概述
        2.1.1 触觉特征类型
        2.1.2 触觉特征需求
    2.2 柔软度感知机理
        2.2.1 柔软度检测方法概述
        2.2.2 手指接触模型
        2.2.3 手指与目标接触模型
        2.2.4 手指与目标接触系统频域分析
    2.3 接触点形貌感知机理
        2.3.1 基于视觉信息感知目标接触点形貌
        2.3.2 基于振动信息感知目标接触点形貌
        2.3.3 基于接触分布力信号感知目标形貌
    2.4 滑移特征感知机理
    2.5 本章小结
第3章 新型微气囊柔性阵列触觉传感器的设计
    3.1 基于气囊型结构柔性阵列触觉传感器的传感机理研究
        3.1.1 传感器敏感元件的工作原理
        3.1.2 气囊型阵列传感器的传感机理理论分析
    3.2 新型气囊柔性阵列触觉传感器的设计
        3.2.1 新型气囊型感知柔性阵列触觉传感器结构设计
        3.2.2 新型气囊型柔性触觉传感器的制备
    3.3 新型气囊型柔性阵列触觉传感器信号采集系统设计
        3.3.1 硬件系统
        3.3.2 基于Labview的上位机设计
    3.4 新型气囊型柔性触觉传感器的性能
    3.5 本章小结
第4章 基于柔性阵列传感器的目标信息感知
    4.1 传感器触觉图像预处理
        4.1.1 去除噪声信息
        4.1.2 图像放大
    4.2 目标信息感知
        4.2.1 目标接触面形状
        4.2.2 目标重量
    4.3 本章小结
第5章 基于柔性气囊阵列传感器的目标动作识别
    5.1 基于卷积神经网络的静态动作识别
        5.1.1 卷积神经网络简介
        5.1.2 卷积神经网络结构
        5.1.3 卷积神经网络训练
        5.1.4 目标静态动作分析
        5.1.5 建立气囊式柔性传感器数据集
        5.1.6 数据集预处理和网络模型介绍
        5.1.7 实验结果分析
        5.1.8 卷积神经网络参数的设置
    5.2 基于CNN-LSTM的动态行为识别
        5.2.1 LSTM网络简介
        5.2.2 CNN-LSTM网络模型
        5.2.3 目标动态行为分析
        5.2.4 获取阵列式传感器的触觉序列数据集
        5.2.5 实验结果分析
    5.3 本章小结
第6章 总结与展望
    6.1 本文总结
    6.2 展望
参考文献
致谢
在读期间发表的学术论文与取得的其他研究成果

(4)视频监控系统中的行人异常行为检测方法研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景及研究意义
    1.2 研究现状及发展趋势
    1.3 本文结构安排
第2章 异常行为检测相关理论基础
    2.1 引言
    2.2 图像预处理
        2.2.1 色彩空间转换
        2.2.2 图像滤波
        2.2.3 形态学处理
    2.3 行人目标检测
        2.3.1 帧间差分法
        2.3.2 光流法
        2.3.3 背景建模法
    2.4 深度学习
        2.4.1 深度学习介绍
        2.4.2 深度学习训练过程
    2.5 本章小结
第3章 基于改进型ViBe算法行人目标检测
    3.1 视觉背景提取(ViBe)经典算法
    3.2 基于改进型ViBe算法的运动目标检测
        3.2.1 自适应阈值更新
        3.2.2 阴影检测
        3.2.3 鬼影消除
    3.3 实验结果及分析
        3.3.1 自适应阈值更新
        3.3.2 阴影检测
        3.3.3 鬼影消除
        3.3.4 改进型ViBe算法的实验分析
    3.4 本章小结
第4章 基于3D卷积和LSTM融合的行人奔跑异常检测
    4.1 二维卷积神经网络(2D-CNN)
        4.1.1 2D-CNN结构
        4.1.2 2D-CNN训练过程
    4.2 三维卷积神经网络(3D-CNN)
        4.2.1 3D-CNN原理
        4.2.2 3D-CNN卷积操作原理
        4.2.3 3D-CNN下采样操作原理
        4.2.4 3D-CNN结构框架
    4.3 长短期记忆神经网络(LSTM)的基本原理
        4.3.1 循环神经网络(RNN)的概念
        4.3.2 构建长短时期记忆网络(LSTM)模型
    4.4 3D-CNN与 LSTM融合模型行人奔跑异常检测
        4.4.1 3D-CNN与 LSTM融合模型结构
    4.5 实验测试及分析
        4.5.1 数据集与实验环境
        4.5.2 实验参数
        4.5.3 实验结果与分析
    4.6 本章小结
结论
参考文献
攻读硕士学位期间发表的论文和获得的科研成果
致谢

(5)高分辨率大视场快速傅里叶叠层显微成像方法研究(论文提纲范文)

摘要
abstract
专业词语英文缩写对照表
主要符号对照表
第1章 绪论
    1.1 光学显微镜发展简史
    1.2 现代远场光学显微成像技术的局限
        1.2.1 分辨率受限制于物镜数值孔径
        1.2.2 视场与分辨率的权衡关系
        1.2.3 像差
        1.2.4 景深狭小
        1.2.5 相位丢失
    1.3 现代远场光学显微成像技术发展路线图
    1.4 傅里叶叠层显微成像术与叠层衍射成像术的联系与区别
    1.5 傅里叶叠层显微成像术的国内外研究现状和进展
        1.5.1 三维成像
        1.5.2 混合态解耦合
        1.5.3 成像系统设计
    1.6 本论文研究目的、意义和主要创新点
    1.7 主要工作和章节安排
第2章 傅里叶叠层显微成像术的理论和实现
    2.1 傅里叶叠层显微成像术的基本原理
        2.1.1 傅里叶叠层显微成像术的采集过程
        2.1.2 傅里叶叠层显微成像术的重建过程
    2.2 傅里叶叠层显微成像术的重构细节
        2.2.1 分块处理缘由及方法
        2.2.2 更新顺序
        2.2.3 频域提取补偿
        2.2.4 空域采样率和频域交叠率
        2.2.5 初始猜测
        2.2.6 分辨率板或生物切片玻璃衬底补偿
        2.2.7 光电数字探测器的选择
    2.3 傅里叶叠层显微成像术的成像性能分析和实验验证
        2.3.1 开源数据算法交叉验证
        2.3.2 基于发光二极管平板照明的傅里叶叠层显微成像实验系统搭建和标定
        2.3.3 成像分辨率和空间带宽积提升验证
        2.3.4 像差恢复正确性间接验证
        2.3.5 数字病理切片高分辨率全彩色成像验证
        2.3.6 景深延拓性能验证
    2.4 傅里叶叠层显微成像术与结构光照明显微术的联系与区别
    2.5 傅里叶叠层显微成像术与相干合成孔径成像的联系与区别
    2.6 本章小结
第3章 傅里叶叠层显微成像系统误差校正方法
    3.1 引言
    3.2 光源亮度不均匀校正方法
    3.3 噪声抑制方法
        3.3.1 噪声抑制求解算法总结与分类
        3.3.2 数据预处理算法
    3.4 混合系统误差校正方法
        3.4.1 算法参数对噪声抑制的鲁棒性影响
        3.4.2 像差恢复与亮度不均匀校正算法的矛盾及解决办法
        3.4.3 照明阵列位置误差与噪声抑制算法的矛盾及解决办法
        3.4.4 无先验的多样混合误差及解决办法
    3.5 渐晕效应校正方法
        3.5.1 渐晕效应对成像质量的影响
        3.5.2 基于严格波动理论的线性空变的渐晕模型
        3.5.3 两个应对策略及实验结果
    3.6 光源相干性影响
    3.7 大视场下的光源位置误差
    3.8 本章小结
第4章 基于半球形聚光镜的傅里叶叠层显微成像系统
    4.1 引言
    4.2 系统搭建
    4.3 实验结果与讨论
    4.4 多种成像方式通量对比与评价
    4.5 本章小结
第5章 基于离焦图像快速傅里叶叠层显微成像方法
    5.1 引言
    5.2 系统搭建及其原理
    5.3 基于单幅离焦图像的单次曝光成像方法
    5.4 基于双幅离焦图像的快速成像方法
    5.5 本章小结
第6章 高通量细胞培养成像系统半月形液面影响的原位矫正
    6.1 引言
    6.2 系统介绍
    6.3 半月形培养液造成的失真、场曲和波矢失配
    6.4 自适应波矢失配校正算法和场曲校正方法
    6.5 实验结果与讨论
    6.6 本章小结
第7章 论文总结和展望
    7.1 本文主要工作总结
    7.2 未来工作展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(6)面向自动驾驶的多传感器三维环境感知系统关键技术研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 三维环境感知技术研究现状
        1.2.1 基于激光雷达的环境感知方法
        1.2.2 基于视觉的环境感知方法
        1.2.3 基于多传感器的环境感知方法
    1.3 课题面临的问题
    1.4 研究内容和组织结构
第2章 三维环境感知系统多传感器标定方法研究
    2.1 感知系统介绍
        2.1.1 感知系统架构
        2.1.2 传感器组成
    2.2 单目相机标定
        2.2.1 透视成像模型
        2.2.2 相机内部参数标定
    2.3 激光雷达与相机联合标定
        2.3.1 平面靶联合标定模型
        2.3.2 联合标定实验设计与实现
    2.4 3D点云与RGB图像配准
        2.4.1 配准实现
        2.4.2 效果分析与讨论
    2.5 本章小结
第3章 基于多阶段互补融合的多传感器三维目标检测方法研究
    3.1 研究思路
        3.1.1 问题概述
        3.1.2 相关概念和方法
    3.2 MCF3D框架和创新点
        3.2.1 框架与流程
        3.2.2 算法创新点
    3.3 MCF3D算法描述
        3.3.1 预处理
        3.3.2 初级预测
        3.3.3 精细回归
        3.3.4 实现与训练
    3.4 实验结果及分析
        3.4.1 算法通用评价标准
        3.4.2 实验设置
        3.4.3 定量评估与比较
        3.4.4 定性分析与讨论
    3.5 本章小结
第4章 级联增强型三维小目标检测方法研究
    4.1 研究思路
        4.1.1 问题概述
        4.1.2 相关概念和方法
    4.2 CE3D框架和创新点
        4.2.1 框架与流程
        4.2.2 算法创新点
    4.3 CE3D算法描述
        4.3.1 基于“分割迁移”的特征提取网络
        4.3.2 基于锚机制的3D先验框生成
        4.3.3 基于级联策略的多子网检测器
        4.3.4 实现与训练
    4.4 实验结果及分析
        4.4.1 实验设置
        4.4.2 定量评估与比较
        4.4.3 定性分析与讨论
    4.5 本章小结
第5章 基于点云密度增强和多重注意力引导的三维目标分割和检测方法研究
    5.1 问题概述
    5.2 KDA3D框架和创新点
        5.2.1 框架与流程
        5.2.2 算法创新点
    5.3 算法描述
        5.3.1 前景分割和候选框生成
        5.3.2 点云密度增强
        5.3.3 语义分割和边界框细化
        5.3.4 实现与训练
    5.4 实验结果及分析
        5.4.1 实验设置
        5.4.2 定量评估与比较
        5.4.3 定性分析与讨论
    5.5 本章小结
第6章 结论与展望
    6.1 研究成果总结
    6.2 论文创新性
    6.3 未来研究工作展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(7)基于场景理解和深度学习的滞留物识别和异常行为检测方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 引言
    1.1 概述
    1.2 滞留物检测研究内容及挑战
    1.3 研究内容与目标
    1.4 论文组织结构
第2章 滞留物检测相关研究及存在的问题
    2.1 引言
    2.2 滞留物检测相关研究及存在的问题
        2.2.1 滞留物检测及静态目标检测
        2.2.2 图像超分辨率重建
        2.2.3 目标检测
        2.2.4 场景理解
        2.2.5 图像语义分析
        2.2.6 细粒度图像分类
    2.3 本章小结
第3章 基于目标追踪的滞留物检测
    3.1 引言
    3.2 基于目标追踪的滞留物检测
        3.2.1 行人追踪算法
        3.2.2 基于连通区域的滞留物品检测方法
    3.3 基于主成分分析的滞留物识别
    3.4 基于目标追踪的滞留物检测实验
        3.4.1 滞留物检测实验结果
        3.4.2 滞留物识别实验结果
    3.5 本章小结
第4章 基于场景理解的滞留物检测及异常行为分析
    4.1 引言
    4.2 基于场景理解的滞留物检测
        4.2.1 静态目标检测
        4.2.2 基于目标检测的滞留物重新定位和分类
        4.2.3 基于多尺度场景理解的语义判断
    4.3 基于场景理解的滞留物检测及行为分析实验
        4.3.1 数据集
        4.3.2 实验结果
    4.4 本章小结
第5章 基于图像超分辨率的细粒度物品识别
    5.1 引言
    5.2 基于图像超分辨率的细粒度物品识别
        5.2.1 图像质量评价
        5.2.2 图像分辨率提升
        5.2.3 细粒度物品识别
    5.3 分析实验
        5.3.1 数据集
        5.3.2 基于图像超分辨率的细粒度物品识别实验
    5.4 本章小结
第6章 结论与展望
    6.1 论文总结
    6.2 研究展望
致谢
参考文献
攻读学位期间的研究成果

(8)基于视觉的目标检测与跟踪算法研究(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究状况与研究难点
        1.2.1 运动目标检测
        1.2.2 运动目标跟踪
        1.2.3 研究难点
    1.3 本文工作与文章结构
        1.3.1 本文工作
        1.3.2 文章结构
第二章 目标检测和跟踪算法基础
    2.1 图像处理基本知识
        2.1.1 彩色图像及灰度变换
        2.1.2 图像滤波操作
    2.2 目标检测和跟踪的常见算法
        2.2.1 帧间差分法
        2.2.2 混合高斯背景建模
        2.2.3 自组织神经网络背景建模
        2.2.4 Kalman滤波
    2.3 性能评价指标介绍
    2.4 本章小结
第三章 多信息融合的目标检测算法
    3.1 引言
    3.2 基于背景建模的目标检测算法
        3.2.1 三帧差分法
        3.2.2 ViBe算法
    3.3 改进的三帧差分法和ViBe相融合的目标检测方法
        3.3.1 改进的三帧差分法
        3.3.2 改进的ViBe算法
        3.3.3 改进算法的融合
    3.4 实验仿真及结果分析
        3.4.1 实验平台及数据库
        3.4.2 实验过程及分析
        3.4.3 与其他目标检测算法的对比与分析
    3.5 本章小结
第四章 改进的KCF运动目标跟踪
    4.1 引言
    4.2 KCF目标跟踪算法
        4.2.1 基础知识
        4.2.2 算法原理
        4.2.3 算法流程
    4.3 SIFT特征提取算法
        4.3.1 构建尺度空间
        4.3.2 特征点定位
        4.3.3 特征点主方向判断
        4.3.4 生成特征点的描述
    4.4 改进的KCF算法
        4.4.1 算法流程
        4.4.2 尺度金字塔引入
        4.4.3 目标遮挡的判断并重新定位
    4.5 实验仿真及结果分析
        4.5.1 实验结果分析
        4.5.2 跟踪性能的比较
    4.6 本章小结
第五章 总结与展望
    5.1 论文工作总结
    5.2 研究展望
参考文献
致谢
作者简介

(9)基于动态背景建模的视频监控中环境异常检测(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题的研究背景与意义
    1.2 国内外研究现状
        1.2.1 智能视频监控研究现状
        1.2.2 背景建模方法研究现状
    1.3 面临的问题与难点
    1.4 主要研究内容与安排
第2章 背景建模方法研究与分析
    2.1 引言
    2.2 背景建模法原理步骤
        2.2.1 模型表示
        2.2.2 背景模型的初始化
        2.2.3 背景模型的更新
        2.2.4 前景检测
    2.3 经典背景建模方法介绍
    2.4 实验对比
    2.5 本章小结
第3章 环境异常检测中外部干扰因素去除
    3.1 引言
    3.2 环境影响因素概述
    3.3 动态背景下的去雾算法
        3.3.1 雾天大气散射模型
        3.3.2 暗通道去雾
        3.3.3 引导滤波
        3.3.4 一种改进的暗通道去雾算法
        3.3.5 实验结果及分析
    3.4 阴影去除算法
        3.4.1 阴影检测概述
        3.4.2 HSV颜色空间模型
        3.4.3 一种基于HSV空间阴影去除方法
        3.4.4 实验结果与分析
    3.5 本章小结
第4章 自适应高斯混合模型环境异常检测方法
    4.1 引言
    4.2 高斯混合模型背景建模方法
        4.2.1 高斯混合模型的初始化
        4.2.2 高斯混合模型的参数更新
        4.2.3 高斯混合模型的权值归一化和排序
        4.2.4 生成背景模型
        4.2.5 前景提取
    4.3 一种动态监控背景下的自适应高斯混合模型
        4.3.1 方法概述
        4.3.2 参数自适应的改进方法
        4.3.3 实验分析
    4.4 动态背景建模的环境异常检测结果
    4.5 本章小结
第5章 总结与展望
    5.1 工作总结
    5.2 未来展望
参考文献
致谢
附录

(10)基于图像处理的轨旁异物入侵检测研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 论文研究的背景与意义
    1.2 国内外研究现状
        1.2.1 轨道入侵检测研究现状
        1.2.2 运动目标检测研究现状
        1.2.3 运动目标跟踪研究现状
    1.3 论文主要研究内容和结构安排
        1.3.1 论文主要内容
        1.3.2 论文结构
    1.4 本章小结
2 轨道图像的预处理基础知识
    2.1 轨道图像的平滑处理
        2.1.1 空间域去噪法
        2.1.2 去噪效果对比
    2.2 图像灰度及二值化
        2.2.1 图像的灰度化
        2.2.2 图像的二值化
        2.2.3 算法对比
    2.3 形态学处理
        2.3.1 膨胀和腐蚀
        2.3.2 开运算和闭运算
    2.4 本章小结
3 轨道入侵异物的检测算法研究
    3.1 运动目标检测技术
        3.1.1 帧间差分法
        3.1.2 背景差分法
        3.1.3 光流法
        3.1.4 算法对比
    3.2 背景建模技术
        3.2.1 高斯混合背景建模法
        3.2.2 核密度估计背景建模法
        3.2.3 码本背景建模法
        3.2.4 Vibe背景建模法
        3.2.5 算法对比
    3.3 基于LaBGen-P的 Vibe目标检测算法
        3.3.1 LaBGen算法
        3.3.2 LaBGen-P算法
        3.3.3 融合LaBGen-P的 Vibe改进算法
        3.3.4 实验结果与分析
    3.4 本章小结
4 轨道异物入侵的阴影去除及运动目标跟踪算法研究
    4.1 阴影去除
        4.1.1 阴影原理
        4.1.2 阴影去除基本方法
        4.1.3 本文阴影去除原理
        4.1.4 实验结果与分析
    4.2 运动目标跟踪算法
        4.2.1 Mean Shift基本原理
        4.2.2 Mean Shift用于目标跟踪
        4.2.3 Cam Shift算法原理
    4.3 改进的Cam Shift算法
        4.3.1 Cam Shift算法改进原理
        4.3.2 实验结果与分析
    4.4 本章小结
5 总结与展望
致谢
参考文献
攻读学位期间研究成果

四、基于噪声与阴影抑制多模态背景模型的运动物体检测(英文)(论文参考文献)

  • [1]计算光学成像:何来,何处,何去,何从?[J]. 左超,陈钱. 红外与激光工程, 2022
  • [2]基于深度学习的双孢菇采摘机器人视觉系统研究[D]. 曹景军. 中国农业科学院, 2021(01)
  • [3]基于微气囊的柔性触觉传感器阵列及对象识别研究[D]. 许玉云. 中国科学技术大学, 2021(09)
  • [4]视频监控系统中的行人异常行为检测方法研究[D]. 姜珊. 沈阳理工大学, 2021(01)
  • [5]高分辨率大视场快速傅里叶叠层显微成像方法研究[D]. 潘安. 中国科学院大学(中国科学院西安光学精密机械研究所), 2020
  • [6]面向自动驾驶的多传感器三维环境感知系统关键技术研究[D]. 王佳荣. 中国科学院大学(中国科学院长春光学精密机械与物理研究所), 2020(01)
  • [7]基于场景理解和深度学习的滞留物识别和异常行为检测方法研究[D]. 张愚. 南昌大学, 2020(01)
  • [8]基于视觉的目标检测与跟踪算法研究[D]. 郑曲乐. 西安电子科技大学, 2020(05)
  • [9]基于动态背景建模的视频监控中环境异常检测[D]. 杨国萍. 贵州大学, 2020(04)
  • [10]基于图像处理的轨旁异物入侵检测研究[D]. 荆静. 兰州交通大学, 2020(01)

标签:;  ;  ;  ;  ;  

基于噪声和阴影抑制多模态背景模型的运动目标检测
下载Doc文档

猜你喜欢