一、视频对象提取系统的研究与实现(论文文献综述)
丁湘陵,杨高波,赵险峰,谷庆,熊义毛[1](2021)在《数字视频伪造被动取证技术研究综述》文中研究表明数字视频伪造被动取证技术直接依据已获得的视频数据本身来判别其真实性,具有更好的适应性,逐渐成为取证研究领域的主流。为了从整体上梳理与描述数字视频伪造被动取证技术,分析了常见的视频伪造操作的特点和它们遗留的痕迹以及对视频被动取证的影响,从取证手段和采用技术2个角度,归纳与总结了基于数字视频来源、基于视频篡改遗留痕迹、基于深度学习框架和基于原始视频特征表征等视频被动取证的典型方法,并详细地探讨了视频伪造被动取证领域面临的挑战和未来的发展趋势。
史启盟[2](2021)在《高速运动物体图像识别与压缩方法研究》文中研究指明运动物体视频图像包含着许多重要的信息数据,而高速运动物体由于速度较快,其运动图像存在采集失真、处理复杂以及分析效果差等方面的问题。本课题以高速运动物体为研究对象,分别进行了图像识别与图像压缩方法的研究,并选取实际工业中的3D打印机高速移动激光点红外图像和高速运动固定翼无人机视频图像分别进行了算法验证及结果分析。主要研究内容如下:(1)分析了高速运动物体图像特征及图像识别过程,提出了基于改进卷积神经网络的高速运动物体图像识别方法。根据高速运动物体运动速度快导致的成像模糊,使得传统的图像识别方法人为提取图像特征困难的问题,采用基于卷积神经网络(CNN)的深度学习方法进行图像识别研究,并针对现有的CNN方法存在的训练效率差、准确率低的问题设计了相关改进方案来提高图像识别的快速性和准确性。(2)针对3D打印机高速移动激光点红外图像进行图像识别研究,分别建立了CNN和改进CNN两种激光点图像识别模型,对两种模型进行对比分析,实验结果表明改进后的CNN模型大大提高了识别效率和准确率;最后利用改进后的CNN模型进行激光中心点温度预测,在误差范围内取得了很好的预测结果。(3)研究了高速运动物体视频图像冗余信息,提出了基于帧内编码和帧间预测结合的高速运动物体视频压缩方法。以静态图像压缩为基础,在传统BP神经网络的基础上加入小波变换的方法进行图像压缩以减少帧内的空间冗余信息,同时针对高速运动物体的视频序列进行了运动信息补偿从而减少帧间的时间冗余信息,最终重构后的视频在保证关键运动信息的前提下大大减少视频数据量。(4)针对高速运动固定翼无人机视频进行图像压缩研究,先对单帧的无人机运动图像进行基于小波变换和神经网络结合的帧内有损压缩,再对压缩后的无人机序列进行基于运动估计和运动补偿的帧间预测编码,最后对压缩前后的无人机运动视频进行目标跟踪和视频传输效果方面的对比分析,结果表明该压缩系统在保留无人机运动信息的情况下可以大大减少冗余数据信息,提高传输效率。
张桂诚[3](2021)在《第一视角行为识别算法研究》文中研究指明智能可穿戴设备在近年来得到了迅速发展,各种各样的可穿戴相机在许多领域被广泛应用,提供了大量第一视角拍摄的视频数据。针对第一视角视频中的行为识别也逐渐得到更多研究人员的关注。对第一视角视频进行数据分析,可以实现对佩戴者的实时监控和状态评估,在医疗健康、虚拟现实、智能家居等方面具有重要应用。第一视角为分析人与物的交互行为提供了全新的观察角度。在第一视角视频中,无法获知第一人称的姿势信息,而且其头部运动会使得拍摄的视频抖动较大,视点变化大,场景复杂多变,这些都为第一视角的行为识别带来了挑战。近年来,深度学习在计算机视觉研究领域中取得了很大进展。本文在深度学习技术的基础上,针对第一视角视频中短时细粒度的行为识别展开研究工作。针对视频采样序列中无法包含丰富的交互物体信息,本文提出了基于第一视角行为活动中操作对象的变化状态,进行分段采样的视频采样方法,以便网络提取到更多的操作对象信息。同时针对操作对象被遮挡,相似等问题,在用类激活图对操作对象进行定位的基础上,提出了邻域法和分组法两种关联特征提取方法。通过引入关联特征,提高操作对象的特征表达能力,从而提升网络对操作对象的识别能力。针对特征融合不充分,以及关联特征提取引入冗余信息的问题,设计了多特征融合网络,即邻域融合网络和分组融合网络,对特征进行充分融合,有效地利用了多特征的互补优势,提升网络行为识别性能。为了进一步提升模型对第一视角行为活动的识别性能和模型泛化能力,本文借鉴多任务学习的思想,对邻域融合网络和分组融合网络设计了多任务学习器。针对邻域融合网络,引入动作和操作对象标签作为辅助任务监督信号,提升网络对动作和操作对象的辨识能力,进而提升网络的行为识别性能。针对分组融合网络,设计了四组独立的分类器分别对多组特征进行学习,再将结果集成,提升网络整体识别能力。通过在标准的第一视角日常行为活动数据集上进行对比实验,验证了本文方法的有效性。
袁林[4](2021)在《群体性事件视频特征挖掘方法与监测场景建模》文中提出随着我国经济社会的高速发展,国家对社会治安防控体系建设日益重视,监控摄像头的覆盖区域不断增加,但在基于监控视频的事件监测方面仍然存在不足。现有智能视频分析方法主要是从视频中获取特征,缺少与外界要素的联动和知识的导引,对事件分析不够系统全面,关键特征不突出。为此,本文针对治安监控视频下群体性事件监测,基于卷积神经网络改进群体性突发事件的关键特征提取方法,基于知识元表示提出融合视频特征的群体性事件监测场景建模方法,从而为后续事件智能识别提供支撑。本文主要工作如下:针对群体性事件的视频特征挖掘部分,本文在对视频关键特征进行分析后,提出基于背景信息融合的密度图生成模型和基于密度图的群体识别模型。基于背景信息融合的密度图生成模型是在基础人头特征提取网络的基础上,增加背景信息抽取模块,并通过特征融合模块融合。该模型利用背景信息辅助计数过程,让模型更加关注人头区域,排除噪声信息的干扰,提升人群计数效果,该方法在Shanghai Tech数据集上得到验证。基于密度图的群体识别模型提出基于密度图的行人头部特征点和LK光流法,追踪获得行人的时空特征,对加权后生成的特征相似度矩阵聚类,实现群体识别,并通过实验论证了该方法的有效性。最后,基于群体识别结果和特征点属性,计算各群体特征,完成群体性事件视频特征挖掘。针对融合视频特征的群体性事件监测场景建模部分,本文在知识和数据融合驱动的治安防控警情监测体系的基础上,提出群体性事件监测场景建模方法,融合并表示视频信息与场景信息,整体分为三部分:群体性事件的视频感知、视频感知与场景信息的融合、基于知识元的场景要素表示。其中,群体性事件的视频感知是从监控视频中挖掘图像特征的过程,分为人数异常判断、视频关键特征提取两部分。前者通过图像中人数预判异常场景,后者针对异常场景实现复杂的视频关键特征提取过程;视频感知与场景信息的融合利用坐标映射把图像中抽取的特征图像坐标转化为场景经纬度,将基于图像的智能分析转化为基于场景空间的综合研判,可以更好利用场景信息。基于知识元的场景要素表示则是将视频特征与场景特征进行事件语义表示,建立高度抽象的事件模型,为后续群体性事件监测提供支撑。
李文涛[5](2021)在《基于面部特征和肢体动作多模态抑郁症识别研究》文中研究说明抑郁症是一种常见且高发的精神障碍疾病,现有的评定过程复杂且相对主观,其有效诊断问题亟待解决。面部活动是人情绪变化的主要外在表现,通过面部特征可以研究抑郁症患者的心理活动和精神状态。抑郁症患者长期受疾病的影响,肢体动作方面临床表现为动作迟缓、身体协调能力下降、反应滞后等特点。本文主要基于面部特征、肢体动作和多模态抑郁症识别展开研究,主要工作为:(1)基于面部特征抑郁症识别。面部特征数据采集自受试者汉密尔顿抑郁量表的评分过程,本文使用视频抽帧的方法对视频进行预处理以实现数据维度对齐;使用Openface工具对抽帧处理后的视频进行面部特征数据提取并执行归一化操作;通过面部特征数据分析,发现抑郁者与对照组之间面部特征存在差异性;构建了适用于面部特征数据集的卷积-长短期记忆神经网络(CNN-LSTM)抑郁症识别模型,准确率为75.56%。(2)基于肢体动作抑郁症识别。肢体动作数据使用Kinect设备采集自受试者完成肢体动作刺激任务过程,经过人体骨架数据提取,并进行噪声剔除和数据平滑处理;通过对肢体动作数据进行分析,本文提出了一种基于简单动作任务适用于抑郁症检测的方法。通过调整空洞卷积尺度大小和残差块设计,本文构建了擅长肢体动作数据时序特征和空域特征学习的时间卷积网络(TCN)抑郁症识别模型,准确率为71.11%。(3)基于特征融合的多模态抑郁症识别。通过CNN-LSTM提取的面部信息特征向量和TCN提取的肢体动作特征向量,本文使用特征拼接的方法进行多模态特征融合,在决策层实现结果预测并达到抑郁症识别的效果;多模态抑郁症识别模型准确率达到82.22%,通过对比单模态和多模态抑郁症识别效果,发现多模态在抑郁症识别工作方面更具有优势。本文通过建立一个基于面部特征和肢体动作的多模态抑郁症识别的模型,以期望适用于精神医生的抑郁症辅助诊断过程。
姚一帆[6](2021)在《基于视频的车辆检测与跟踪系统设计与实现》文中提出视频图像里的车辆检测与跟踪是智能交通领域中的关键技术,具有巨大的研究价值与应用价值。无需人为参与即可通过车辆检测和跟踪技术检测视频中的车辆,对序列帧图像进行分析后获得目标参数,实现对车辆的匹配和跟踪,进而精准定位目标车辆,确定目标的行进轨迹。在实际应用中,当目标车辆被遮挡或者随着其运动在图像上的成像大小发生明显变化时,会造成跟踪的丢失,导致运动目标跟踪失败。如何提升跟踪的性能是需要解决的首要难题。针对上述问题本文提出一种基于视频图像处理的卡尔曼跟踪算法,该算法可以在少数帧丢失目标的情况下实时连续地跟踪视频中的车辆,实验通过对算法进行需求分析后进行软件设计,最终进行对开展测试与应用,实现了基于视频的车辆检测与跟踪系统。论文的具体工作如下:第一,结合基于视频的运动目标检测与识别跟踪技术,采用了混合高斯模型、卡尔曼滤波技术、目标特征识别技术,研究基于视频的车辆检测与跟踪的方法。第二,通过分析系统数据、软件需求以及图像处理的工作原理,设计了基于视频的车辆检测与跟踪系统的总体架构。在VS2015集成开发环境下,采用OpenCV计算机视觉库,结合开源的卡尔曼跟踪算法,实现了基于视频的车辆检测与跟踪系统。系统主要由车辆检测界面和车辆跟踪界面组成,可以实现显示车辆检测、车辆跟踪等基本功能。第三,论文对于上述开展的两个工作进行了测试和验证。分别对于车辆检测模块与车辆跟踪模块进行测试。一方面对于检测模块分别于障碍物遮挡下以及与模型对比后发现,不仅能够准确识别,且相较于TDL模型而言准确度更高,以此说明了检测模块的准确度和优越性;另一方面用存在丢失帧的视频数据测试系统的跟踪性能,研究表明能够有效的定位并跟踪目标车辆,由此说明跟踪模块的优越性与鲁棒性。本文以基于视频的车辆检测与跟踪系统的设计与实现过程为主导,介绍了本系统的背景信息、研究目的、发展现状和行业相关技术,并且重点讨论了车辆检测和车辆跟踪这两个重要方面。
覃国孙[7](2021)在《基于广播电视媒体的食品药品安全舆情监测系统设计与实现》文中进行了进一步梳理现如今,我国诸如“山东假疫苗”、“过期汉堡”等有关食品药品安全的各类大小突发事件仍时有发生。这些事件信息在各类网络和媒体中传播发酵,对人民群众的生活造成了很大的困扰,也时刻在考验食品药品监督管理部门的舆情监管能力。目前国内有关食品药品安全的舆情监测大多针对的是网络媒体,缺乏在广播电视媒体中获取关于食品药品舆情的技术手段,如何及时、有效地掌握食品药品安全舆情信息在广播电视媒体的传播动态已成为食品药品监管部门的迫切需求。本文提出设计一种基于广播电视媒体的食品药品安全舆情监测系统,首先围绕食品药品安全舆情监测业务流程和用户需求,使用UML建模的方法完成对系统的需求分析;接着基于B/S架构完成系统总体结构设计,并对系统的业务流程、功能模块和数据库进行了详细设计,其中研究设计了一种基于广播电视音视频内容的食药舆情快速检索发现的技术方法,通过应用音视频处理和语音识别的相关技术实现了从广播电视媒体播出的新闻类、法治类、专题类等特定节目中识别检索出有关食药舆情信息的音视频内容;然后选择Java编程语言,采用基于MVC模式的SSH框架完成系统的整体开发;最后,通过接入实际的广播电视信号对系统进行测试,测试结果表明,系统最终实现了数据采集、节目自动识别、舆情快速检索、舆情分析和综合展示等业务功能,系统功能实用,可基本满足舆情监测工作的实际需求,为食品药品监管部门对广播电视媒体开展舆情监测工作提供了有效的技术手段。本文取得的成果及创新点:(1)设计并实现了一种以广播电视音视频为监测和识别检索基础数据的食品药品安全舆情自动化监测系统,补充了国内基于广播电视音视频内容开展食药舆情监测的研究成果;(2)研究实现了一种基于广播电视音视频内容的食药舆情快速检索发现的技术方法,系统实时性高,可有效提升舆情监测监管的工作效率。
贺怡[8](2021)在《基于视频分析的无线感知数据样本求精与泛化方法研究》文中认为无线感知作为新兴的非传感器感知的重要技术,在动作识别、身份认证、跌倒检测等诸多方面被广泛应用。由于无线信号不具备可视化的特征,研究者往往无法判别数据样本是否合规,也不清楚数据样本分布是否广泛多样。不合规样本的存在使数据集质量下降,数据分布不广泛造成无线感知识别模型泛化能力差。本文围绕去除不合规无线数据样本、提升感知识别模型泛化能力两个问题开展研究,提出了相应的解决方法,并在两类无线数据集(CSI和RFID)上进行评估。本文具体的主要研究内容如下:(1)本文提出了一种基于视频识别的无线数据样本求精方法。该方法通过视频识别技术,找出不合规动作样本,并根据数据间的对应关系将不合规的无线数据样本筛除。(2)本文提出了一种基于视频标记的无线数据样本泛化方法。该方法利用视频对动作样本的角度和位置进行标记,分析动作的角度和位置分布情况,当角度或位置分布间隔大于实验所得到的阈值时,则指导用户定向地调整角度和位置补充采集无线数据。该方法通过增加样本的覆盖率来提升无线感知模型的泛化能力。(3)基于以上两种方法,设计并实现了基于视频分析的无线感知数据样本求精与泛化系统,并在CSI数据集和RFID数据集上对该系统进行了评估。实验结果显示,基于CSI信号的感知识别准确率从89.5%提升至96.5%;基于RFID信号的感知识别准确率从89.1%提升至95.8%。
秦琪[9](2021)在《目标跟踪算法研究及在视频监控中的应用》文中研究指明计算机视觉作为当今人工智能研究的主要方向之一,其中的目标跟踪任务由于其广泛的应用前景备受人们关注。目标跟踪任务是让计算机能够在视频序列中自动确定所需跟踪对象,并给出目标对象的运动轨迹。目标跟踪技术可用于视频或有连续关联的图像序列中,任意目标的空间位置和形状尺寸的获取。目前主流的目标跟踪方法有相关滤波算法和深度学习方法,因两个分支的方法有较高的跟踪准确性和较快的跟踪速度,吸引众多学者进行研究,伴随着计算机计算和存贮能力的不断增强,人工智能和深度学习领域的关注度近年来迅速提升,基于深度学习的目标跟踪方法具有较好的发展潜力。本文对已有目标跟踪技术进行了详细的算法介绍,归纳总结出来近年来学者对目标跟踪技术的相关研究,并分析了现有方法存在的不足。针对孪生网络架构方法中,目标对象图像由对象框选择,而存在的目标对象不细致的问题,提出基于图像分割的孪生网络目标跟踪算法,在标准数据集上进行跟踪实验,验证了方法的有效性,并将改进后的方法应用到监控视频的智能分析过程中。本文主要内容和创新如下:(1)总结现有单目标跟踪方法的基础原理,从理论上分析现有方法的优势和不足。(2)归纳、总结国内外学者提出的基于孪生网络架构的跟踪方法,简要阐述孪生网络跟踪方法的改进方向、核心思想和创新技术。(3)针对孪生网络跟踪方法中,目标由矩形框标定,其中包含的背景信息对跟踪器产生干扰的问题,提出基于图像分割的孪生网络目标跟踪方法(CS-Siam),使用聚类分割方法获得精确的目标边界,经骨干网路特征提取后得到更适合相关计算的目标特征,从而提升跟踪器的跟踪效果。(4)将改进后的跟踪方法应用于实际视频监控数据中,针对超市自助收银监控视频,跟踪顾客的扫码商品。使用跟踪结果,以达到智能判断顾客自助结账时正确性的目的。实验结果表明,改进后的方法可以很好的应对监控视频下的目标跟踪任务,该方法可以极大减少超市的人工成本以及相关损失,具有较好的应用价值。
汤志伟[10](2015)在《面向公安业务的视频结构化描述研究与实现》文中研究说明在公安机关部署视频监控系统的前期,虽然在一定程度上实现了警务信息化,提高了工作效率,但随着视频监控系统规模的不断扩大、公安信息化应用的持续深入和公安机关业务需求的日益增长,现有的视频监控系统已经不能满足。面对数量巨大的视频监控图像数据,如何让计算机自动“理解”视频,实现对海量视频图像资源快速而有效的管理成为公安研究领域一个亟需解决的重要问题。视频结构化描述技术是对视频的语义信息进行提取及描述,采用镜头分割、特征提取、对象识别、视频标准化描述等处理手段,通过对视频内容进行语义化分析,将视频图像信息组织成可对视频内容进行准确描述,同时便于检索和压缩的文本语义信息,并转化为公安实战所用的情报。本文针对公安部门警务工作对监控视频情报化应用的需求,提出并深入研究了面向公安业务的视频结构化描述技术,涉及图像处理和模式识别、语义提取、嵌入式等领域;最后研究了视频结构化描述技术处理设备的软硬件实现。在计算机视觉、智能视频监控领域,视频图像的背景建模技术对视频场景分类、行为理解等后续处理产生重要影响。本文对道路交通复杂场景的背景建模与运动目标提取进行了较为深入的研究,针对普通混合高斯背景模型计算量大、实时性较差等问题,提出一种快速的混合高斯背景建模算法,该算法根据各像素点颜色值出现的混乱程度不同采取不同的高斯函数参数更新机制。大量实验表明,该算法能在保证背景建模与运动目标提取效果的同时,较大提高混合高斯模型的处理速度。视频语义信息提取,是根据给定的一组特征类别对视频数据进行自动标注,能够很好地支持基于内容的视频分类与检索。本文将基于局部语义概念表示的视频图像运动目标作为主要研究对象,研究了基于语义主题(p LSA)模型的视频关键语义信息提取方法。首先对图像中的运动目标进行多尺度分解,采用SIFT局部特征提取算法和特征聚类提取图像不同粒度的视觉信息;其次利用基于密度的最优主题数选择算法确定p LSA模型的主题数;然后利用p LSA模型分析图像块之间的语义共生概率,并结合Markov随机场(Markov Random Field,MRF)共同挖掘图像块间的信息;最后加权连接不同尺度上的图像特征构建图像的多尺度直方图表示,结合SVM算法实现图像运动目标信息的提取。实验结果表明,本节算法能够有效利用图像的视频语义信息,提高图像运动目标识别率和视频关键语义信息提取的性能。根据从视频中提取的语义信息,对视频流进行结构化描述,可以增强对视频内容的访问、检索和操作功能。本文着重研究了视频语义信息的层次化描述技术,设计了一种视频语义信息的结构化描述方案,用对象层次来描述不同层次对象之间的关系,通过实体关系图来描述同一层次对象之间的关系,实现对视频语义信息的多级概括。并利用以上模型设计了一种视频数据库查询系统,用户可以根据不同的层次特征,对视频数据库进行有效地浏览和检索。最后本课题以FPGA+DSP为架构,研究了基于FPGA+DSP的视频结构化描述处理系统的软硬件实现,采用DSP作为主处理器,进行图像数据的核心算法处理,采用FPGA作为辅助处理器,负责图像采集与部分图像预处理工作,以及与DSP芯片的数据通信。利用上述研究成果,构建了嵌入式视频信息结构化描述系统,对采集的道路车辆信息实现实时分析与传送,建立了一个有关道路交通视频描述的数据库,交警部门可以根据需要对描述数据库进行查询和检索,极大地提高了道路交通视频使用的效率,该系统已经取得了初步的成果,在南昌、太仓等地的公安部门得到试用。
二、视频对象提取系统的研究与实现(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、视频对象提取系统的研究与实现(论文提纲范文)
(1)数字视频伪造被动取证技术研究综述(论文提纲范文)
1 引言 |
2 数字视频伪造操作特点及遗留的篡改痕迹 |
3 视频伪造被动取证技术 |
3.1 视频来源被动取证技术 |
1) 基于成像设备和文件格式一致性的被动取证技术 |
2)基于视频压缩编码器的被动取证技术 |
3)面向网络传输技术的被动取证技术 |
3.2 基于视频篡改遗留痕迹的被动取证技术 |
3.2.1 针对帧插入/删除/复制的被动取证技术 |
1)基于相机固有痕迹的被动取证技术 |
2)基于重压缩效应的被动取证技术 |
3)基于运动矢量和亮度的被动取证技术 |
4)基于像素域的被动取证技术 |
3.2.2 针对帧率上转换的被动取证技术 |
1)针对简单帧率上转换的被动取证技术 |
2)针对运动补偿帧插值的被动取证技术 |
3.2.3 针对复制-移动-粘贴篡改的被动取证 |
1)基于像素相似性分析的被动取证 |
2)基于运动对象的被动取证 |
3)基于运动特征的被动取证 |
3.2.4 针对视频对象移除的被动取证 |
1)视频对象修复的被动取证 |
2)针对放大-剪切的被动取证 |
3.3 基于深度学习的视频篡改检测技术 |
1)直接部署已存在的深度网络模型 |
2)前置预处理层 |
3)特定视频取证任务的CNN网络结构 |
4)针对深度伪造视频的被动取证技术 |
5)针对深度视频修复伪造的被动取证技术 |
3.4 基于原始视频特征表征的单类检测方法 |
4 存在的挑战和未来的研究展望 |
1)深度视频篡改的深度取证技术 |
2)研究健壮、开放、可解释的数字视频伪造取证技术 |
3)构建大规模深度篡改视频数据集 |
5 结论 |
(2)高速运动物体图像识别与压缩方法研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 课题研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 图像识别研究现状 |
1.2.2 图像压缩研究现状 |
1.2.3 高速运动物体研究现状 |
1.3 课题主要内容和结构 |
2 高速运动物体图像识别方法 |
2.1 高速运动物体图像特征分析 |
2.2 图像识别过程 |
2.3 基于卷积神经网络的图像识别 |
2.3.1 卷积神经网络基本结构 |
2.3.2 卷积神经网络参数训练 |
2.3.3 卷积神经网络图像识别流程 |
2.4 卷积神经网络改进方法 |
2.4.1 网络结构改进 |
2.4.2 标准化和正则化 |
2.4.3 多层特征融合 |
2.5 本章小结 |
3 基于卷积神经网络的高速移动激光点图像识别 |
3.1 3D打印激光束特点分析 |
3.2 激光点图像数据采集系统设计 |
3.2.1 红外图像采集装置 |
3.2.2 红外摄像头采集模块 |
3.2.3 串口数据传输模块 |
3.2.4 激光温度数据采集过程 |
3.3 激光点红外图像识别过程 |
3.3.1 激光图像识别流程 |
3.3.2 图像数据预处理 |
3.3.3 数据集制作及参数设置 |
3.3.4 CNN及改进CNN模型 |
3.3.5 模型训练及结果分析 |
3.4 激光中心点温度预测 |
3.4.1 测试集处理 |
3.4.2 预测结果及实验分析 |
3.5 本章小结 |
4 高速运动物体视频图像压缩方法 |
4.1 数据的冗余与压缩 |
4.1.1 数据的冗余类型 |
4.1.2 数据压缩分类 |
4.1.3 压缩评价指标 |
4.2 静态图像压缩 |
4.2.1 图像压缩系统构成 |
4.2.2 基于小波变换的图像数据压缩 |
4.2.3 基于BP神经网络的图像数据压缩 |
4.3 序列图像中的运动信息处理 |
4.3.1 运动序列图像特点 |
4.3.2 高速运动物体视频分割 |
4.3.3 基于运动估计的帧间预测编码 |
4.4 高速运动视频图像压缩系统 |
4.4.1 视频图像压缩整体流程 |
4.4.2 压缩重构示例 |
4.5 本章小结 |
5 基于帧内和帧间编码的高速无人机视频图像压缩 |
5.1 高速无人机视频传输系统 |
5.2 基于小波神经网络的无人机静态图像压缩 |
5.2.1 视频图像关键帧提取 |
5.2.2 小波神经网络图像压缩 |
5.2.3 图像重构及结果分析 |
5.3 基于帧间预测编码的无人机视频序列压缩 |
5.3.1 基于三帧差分的无人机目标分割 |
5.3.2 基于块匹配的无人机运动估计 |
5.4 无人机视频重构及结果分析 |
5.4.1 视频重构 |
5.4.2 视频压缩前后结果分析 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读硕士学位期间的研究成果 |
(3)第一视角行为识别算法研究(论文提纲范文)
摘要 |
英文摘要 |
1 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.2.1 人体行为识别研究现状 |
1.2.2 第一视角行为识别研究现状 |
1.3 研究难点及本文工作 |
1.4 论文的章节安排 |
2 第一视角行为识别相关理论 |
2.1 深度学习基础理论 |
2.1.1 卷积神经网络 |
2.1.2 长短期记忆网络 |
2.1.3 卷积长短期记忆网络 |
2.2 基于类激活图的行为识别网络 |
2.2.1 双流网络模型 |
2.2.2 类激活图 |
2.3 数据集及模型性能评估标准 |
2.4 本章小结 |
3 基于周边关联对象的行为识别 |
3.1 基于操作对象变化状态的分段采样方法 |
3.2 周边关联对象特征提取 |
3.3 多特征融合网络模型 |
3.3.1 邻域融合策略 |
3.3.2 分组融合策略 |
3.4 实验结果与分析 |
3.4.1 实验参数 |
3.4.2 采样方法对识别性能的影响 |
3.4.3 周边关联特征对识别性能的影响 |
3.4.4 多特征融合对识别性能的影响 |
3.5 本章小结 |
4 基于多任务学习的行为识别 |
4.1 多任务学习 |
4.2 基于邻域融合的多任务学习网络构建 |
4.2.1 多标签与网络结构 |
4.2.2 多任务损失函数 |
4.3 基于分组融合的多任务学习网络构建 |
4.3.1 网络结构与损失函数 |
4.3.2 集成策略 |
4.4 实验结果与分析 |
4.4.1 实验参数 |
4.4.2 多任务学习对识别性能的影响 |
4.4.3 对比实验结果与分析 |
4.5 本章小结 |
5 总结与展望 |
5.1 总结 |
5.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(4)群体性事件视频特征挖掘方法与监测场景建模(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 研究内容及创新点 |
1.3 研究方法与技术路线 |
1.3.1 研究方法 |
1.3.2 技术路线 |
1.4 论文组织架构 |
2 国内外相关研究综述 |
2.1 群体性事件识别的视频特征提取研究现状 |
2.1.1 人群密度图研究现状 |
2.1.2 群体识别研究现状 |
2.2 基于监控视频的事件建模分析研究现状 |
2.2.1 群体相关事件建模分析研究现状 |
2.2.2 场景建模及表示研究现状 |
3 基于卷积神经网络的群体性事件的视频特征挖掘方法 |
3.1 群体性事件视频特征挖掘框架 |
3.2 融合背景信息的人群密度图生成模型 |
3.2.1 人群密度图生成的问题提出 |
3.2.2 融合背景信息的人群密度图改进模型 |
3.2.3 实验与分析 |
3.3 基于密度图时空特征的群体特征挖掘方法 |
3.3.1 群体特征挖掘的问题提出 |
3.3.2 基于密度图的人群时空特征提取方法 |
3.3.3 基于时空特征聚类的群体识别方法 |
3.3.4 基于群体识别的群体特征挖掘方法 |
3.3.5 实验与分析 |
4 融合视频特征的群体性事件监测场景建模与实现 |
4.1 面向治安防控警情监测的场景建模 |
4.1.1 知识和数据融合驱动的治安防控警情监测体系 |
4.1.2 治安防控警情监测中场景建模的思路 |
4.2 融合视频特征的群体性事件监测场景建模方法 |
4.2.1 群体性事件场景建模整体框架 |
4.2.2 群体性事件的视频感知实现框架 |
4.2.3 视频感知与场景信息的融合方法 |
4.2.4 基于知识元的场景表示方法 |
4.3 场景建模实例 |
4.3.1 群体性事件视频感知实现过程 |
4.3.2 视频感知与场景信息的融合实现过程 |
4.3.3 基于知识元的场景表示实现过程 |
结论 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
攻读硕士学位期间参与项目及成果情况 |
致谢 |
(5)基于面部特征和肢体动作多模态抑郁症识别研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 研究现状 |
1.3 章节安排 |
第2章 相关技术 |
2.1 面部特征捕捉方法概述 |
2.1.1 面部动作单元 |
2.1.2 眼神检测 |
2.2 肢体动作数据捕捉方法概述 |
2.2.1 基于可穿戴设备或传感器 |
2.2.2 基于RGB视频 |
2.2.3 基于Kinect设备 |
2.3 识别算法概述 |
2.3.1 SVM |
2.3.2 随机森林 |
2.3.3 BP神经网络 |
2.3.4 卷积神经网络 |
2.4 本章小结 |
第3章 数据采集及数据集构建 |
3.1 实验设计 |
3.1.1 实验目的 |
3.1.2 设备及采集环境 |
3.1.3 实验对象及评定 |
3.1.4 实验流程设计 |
3.2 面部特征数据 |
3.2.1 数据采集 |
3.2.2 视频数据预处理 |
3.2.3 面部特征数据提取 |
3.2.4 数据归一化处理 |
3.3 肢体动作数据 |
3.3.1 肢体动作刺激任务设计 |
3.3.2 肢体动作数据采集流程 |
3.3.3 肢体动作数据提取 |
3.3.4 数据平滑处理 |
3.4 数据筛选 |
3.5 数据集 |
3.6 本章小结 |
第4章 基于面部特征的抑郁症识别 |
4.1 面部特征分析 |
4.1.1 面部运动单元特征分析 |
4.1.2 眼神特征分析 |
4.2 基于面部特征数据的抑郁症识别模型 |
4.2.1 CNN-LSTM识别模型概述 |
4.2.2 基于卷积神经网络的特征提取 |
4.2.3 基于LSTM的时序特征计算 |
4.2.4 CNN-LSTM模型设计 |
4.3 模型评价 |
4.4 实验结果 |
4.5 本章小结 |
第5章 基于肢体动作的抑郁症识别 |
5.1 肢体动作特征分析 |
5.1.1 肢体动作时间序列特征分析 |
5.1.2 肢体动作位移量化分析 |
5.1.3 肢体动作数据帧数与帧率 |
5.2 基于肢体动作数据的抑郁症识别模型 |
5.2.1 时间卷积神经网络 |
5.2.2 时间卷积网络模型设计 |
5.3 实验结果 |
5.4 本章小结 |
第6章 基于多模态抑郁症识别 |
6.1 基于特征融合的多模态抑郁症识别模型 |
6.1.1 多模态特征融合 |
6.1.2 多模态模型设计 |
6.1.3 多层感知机分类器 |
6.1.4 残差网络分类器 |
6.2 基于多模态抑郁症识别实验 |
6.2.1 实验结果 |
6.2.2 实验结果分析 |
6.3 本章小结 |
第7章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
在学期间主要科研成果 |
(6)基于视频的车辆检测与跟踪系统设计与实现(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 本论文的背景和意义 |
1.2 研究目的 |
1.3 国内外研究现状 |
1.4 本论文的主要研究内容和章节安排 |
1.4.1 研究内容 |
1.4.2 章节安排 |
第2章 基于视频的运动目标检测原理 |
2.1 视频图像处理相关技术 |
2.1.1 图像灰度化 |
2.1.2 图像噪声处理 |
2.1.3 图像分割 |
2.1.4 图像融合 |
2.2 运动区域提取原理 |
2.2.1 背景建模 |
2.2.2 运动区域提取 |
2.3 背景建模及运动目标提取实验结果 |
2.4 本章小结 |
第3章 基于视频的运动目标跟踪原理 |
3.1 卡尔曼滤波器 |
3.2 目标特征状态描述 |
3.3 基于状态特征的目标跟踪 |
3.4 TLD跟踪模型介绍 |
3.5 Mean Shift算法模型介绍 |
3.5.1 Mean Shift算法的基本形式定义 |
3.5.2 Mean Shift算法收敛性证明 |
3.5.3 Mean Shift算法的优缺点 |
3.6 运动目标跟踪实验结果 |
3.7 基于传感网络的车辆检测 |
3.8 本章小结 |
第4章 基于视频的车辆检测与跟踪系统的设计与实现 |
4.1 系统需求分析 |
4.1.1 系统的功能需求 |
4.1.2 系统的性能要求 |
4.2 系统的结构设计 |
4.3 系统的实现 |
4.3.1 系统开发工具 |
4.3.2 车辆检测模块的实现 |
4.3.3 车辆跟踪模块的实现 |
4.4 本章小结 |
第5章 基于视频的车辆检测与跟踪系统的测试 |
5.1 测试环境 |
5.2 测试方案 |
5.3 车辆检测模块测试 |
5.3.1 测试用例 |
5.3.2 运行结果示意图 |
5.4 车辆跟踪模块测试 |
5.4.1 测试用例 |
5.4.2 运行结果示意图 |
5.5 跟踪性能测试 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 进一步工作与展望 |
参考文献 |
致谢 |
(7)基于广播电视媒体的食品药品安全舆情监测系统设计与实现(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究的意义和目的 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内研究现状 |
1.3 研究的主要内容 |
1.4 论文组织结构 |
1.5 本章小结 |
第二章 系统需求分析 |
2.1 系统总体业务目标分析 |
2.2 系统业务需求分析 |
2.2.1 用户类型分析 |
2.2.2 业务流程总体分析 |
2.2.3 业务用例分析 |
2.3 系统非功能性需求分析 |
2.3.1 实时性需求 |
2.3.2 业务响应时间需求 |
2.3.3 系统界面需求 |
2.4 本章小结 |
第三章 系统设计 |
3.1 总体设计思路 |
3.2 系统总体设计 |
3.3 系统硬件部署设计 |
3.4 数据库设计 |
3.4.1 E-R关系模型 |
3.4.2 数据库表结构设计 |
3.5 基于广播电视音视频内容的食药舆情快速检索发现方法设计 |
3.5.1 总体思路与方法流程 |
3.5.2 具体技术方法设计 |
3.6 主要功能模块详细设计 |
3.6.1 节目识别 |
3.6.2 音视频内容翻译 |
3.6.3 关键字与字幕定位播放 |
3.6.4 关键帧定位播放 |
3.6.5 舆情片段截取 |
3.7 本章小结 |
第四章 系统实现 |
4.1 开发环境与工具 |
4.2 系统总体实现 |
4.3 系统登录模块的实现 |
4.4 数据采集功能模块的实现 |
4.5 舆情检索功能模块的实现 |
4.5.1 节目识别 |
4.5.2 音视频内容翻译 |
4.5.3 音视频内容定位 |
4.5.4 舆情片段截取 |
4.6 舆情分析功能模块的实现 |
4.7 报表统计功能模块的实现 |
4.8 本章小结 |
第五章 系统测试 |
5.1 系统运行测试环境 |
5.2 系统功能测试 |
5.2.1 频道监看模块测试 |
5.2.2 特征提取模块测试 |
5.2.3 节目识别模块测试 |
5.2.4 音视频内容翻译模块测试 |
5.2.5 舆情检索模块测试 |
5.2.6 舆情展示与分析模块测试 |
5.3 非功能性测试 |
5.4 舆情自动识别发现效果验证测试 |
5.4.1 测试内容及方法 |
5.4.2 测试结果及分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
6.3 主要创新点 |
参考文献 |
致谢 |
攻读学位期间发表论文情况 |
(8)基于视频分析的无线感知数据样本求精与泛化方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 引言 |
1.1 研究背景和意义 |
1.1.1 基于无线信号的感知方法简介 |
1.1.2 基于无线信号的感知原理 |
1.1.3 研究的目的和意义 |
1.2 国内外研究现状 |
1.2.1 研究现状 |
1.2.2 存在问题 |
1.3 本文的研究内容 |
1.4 本文的组织结构 |
第二章 相关技术及研究 |
2.1 无线数据样本过滤方法 |
2.1.1 基于MCS(Modulation and Coding Scheme)指数的样本过滤方法 |
2.1.2 基于CP(Conformal Prediction)模型的样本过滤方法 |
2.2 跨域无线感知识别方法 |
2.2.1 基于迁移学习的跨场景识别方法 |
2.2.2 基于BVP(body-coordinate velocity profile)的跨域识别方法 |
2.3 视频分析方法 |
2.3.1 密集轨迹DT(Dense Trajectories) |
2.3.2 3D卷积神经网络(3D-CNN) |
2.3.3 时空双流网络(Two Stream Network) |
2.3.4 C3D网络 |
2.4 本章小结 |
第三章 基于视频识别的无线数据样本求精方法 |
3.1 方法简介 |
3.1.1 方法思想 |
3.1.2 方法介绍 |
3.2 方法设计 |
3.2.1 数据预处理 |
3.2.2 特征提取 |
3.2.3 分类识别 |
3.2.4 无线数据样本过滤 |
3.3 本章小结 |
第四章 基于视频标记的无线数据样本泛化方法 |
4.1 方法简介 |
4.1.1 方法思想 |
4.1.2 方法介绍 |
4.2 方法设计 |
4.2.1 数据预处理 |
4.2.2 动作分布情况分析 |
4.2.3 数据样本补充方案设计 |
4.3 本章小结 |
第五章 系统设计与实验评估 |
5.1 系统设计与实现 |
5.1.1 系统设计 |
5.1.2 数据采集模块 |
5.1.3 无线数据样本求精模块 |
5.1.4 无线数据样本泛化模块 |
5.2 系统评估设计 |
5.2.1 基于CSI信号的感知识别方法介绍 |
5.2.2 基于RFID信号的感知识别方法介绍 |
5.2.3 系统效果评估方法 |
5.3 实验设计 |
5.3.1 实验环境 |
5.3.2 实验动作设置 |
5.3.3 实验参与者 |
5.3.4 具体实验步骤 |
5.4 阈值实验结果分析与阈值选取 |
5.5 视频分析结果 |
5.5.1 视频识别及数据样本求精 |
5.5.2 视频标记及数据样本泛化 |
5.6 基于CSI信号的感知识别效果评估 |
5.6.1 不同分类算法识别效果评估 |
5.6.2 不同特征识别效果评估 |
5.6.3 不同动作识别效果评估 |
5.6.4 不同实验参与者识别效果评估 |
5.6.5 不同CSI感知识别系统识别效果评估 |
5.7 基于RFID信号的感知识别效果评估 |
5.7.1 不同分类算法识别效果评估 |
5.7.2 不同特征识别效果评估 |
5.7.3 不同动作识别效果评估 |
5.7.4 不同实验参与者识别效果评估 |
5.7.5 不同RFID感知识别系统识别效果评估 |
5.8 本章小结 |
总结与展望 |
参考文献 |
攻读硕士学位期间取得的科研成果 |
致谢 |
(9)目标跟踪算法研究及在视频监控中的应用(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景和意义 |
1.2 国内外发展现状 |
1.3 主要研究工作 |
1.4 论文组织结构 |
第2章 目标跟踪相关算法理论基础 |
2.1 目标跟踪算法概述 |
2.1.1 目标跟踪中的难点 |
2.1.2 目标跟踪算法分类 |
2.1.3 基于图形学的目标跟踪算法 |
2.1.4 相关滤波方法 |
2.2 孪生网路跟踪方法 |
2.3 图像分割算法 |
2.4 本章小结 |
第3章 基于图像分割的孪生网络跟踪算法 |
3.1 孪生网络算法分析 |
3.2 基于图像分割的孪生网络模型结构 |
3.2.1 图像分割与输入 |
3.2.2 特征提取 |
3.2.3 相关性运算 |
3.3 实验与分析 |
3.3.1 实验数据集及评价指标 |
3.3.2 模型设置 |
3.3.3 实验结果及分析 |
3.4 本章小结 |
第4章 目标跟踪算法在视频监控中的应用 |
4.1 视频监控中跟踪算法的应用 |
4.2 跟踪对比实验 |
4.3 本章小结 |
第5章 总结与展望 |
5.1 结论 |
5.2 未来工作展望 |
致谢 |
参考文献 |
作者简介 |
攻读硕士学位期间研究成果 |
(10)面向公安业务的视频结构化描述研究与实现(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题来源 |
1.2 研究背景 |
1.3 国内外研究现状 |
1.4 本文主要研究内容 |
1.5 论文结构安排 |
1.6 本章小结 |
第二章 视频结构化描述相关理论 |
2.1 视频结构分析 |
2.1.1 关键帧提取 |
2.1.2 镜头检测 |
2.1.3 镜头聚类 |
2.2 全局底层特征提取 |
2.2.1 颜色特征 |
2.2.2 纹理特征 |
2.2.3 形状特征 |
2.3 局部底层特征提取 |
2.4 本章小结 |
第三章 基于快速混合高斯的视频背景建模 |
3.1 典型的背景模型 |
3.1.1 帧间差分法 |
3.1.2 基于时间轴滤波的背景估计 |
3.1.3 卡尔曼滤波法 |
3.2 混合高斯背景模型 |
3.2.1 EM算法原理 |
3.2.2 混合高斯模型参数估计 |
3.3 快速混合高斯改进算法 |
3.3.1 现有算法的缺陷 |
3.3.2 一种快速混合高斯算法 |
3.4 实验分析 |
3.5 本章小结 |
第四章 基于语义主题模型的视频关键语义信息提取 |
4.1 SIFT局部特征提取及特征聚类 |
4.1.1 尺度空间极值点检测 |
4.1.2 关键点精确定位 |
4.1.3 关键点方向参数指定 |
4.1.4 关键点描述子生成 |
4.1.5 特征聚类 |
4.2 语义主题模型理论 |
4.2.1 pLSA模型 |
4.2.2 LDA模型 |
4.2.3 基于pLSA模型的语义共生概率提取 |
4.2.4 Markov随机场 |
4.3 基于pLSA+MRF的关键运动目标识别算法 |
4.3.1 pLSA模型的最优主题数选择 |
4.3.2 关键运动目标识别算法 |
4.4 实验设置与结果分析 |
4.4.1 实验设置 |
4.4.2 实验结果分析 |
4.5 本章小结 |
第五章 基于层次模型的视频语义结构化描述 |
5.1 视频语义模型特点 |
5.2 视频语义信息层次化表示模型 |
5.2.1 基于镜头的模型 |
5.2.2 基于对象的模型 |
5.2.3 视频语义信息层次化表示模型 |
5.3 视频语义信息的结构化描述 |
5.3.1 多媒体内容描述接口MPEG-7 |
5.3.2 视频语义信息的结构化描述 |
5.4 视频语义信息结构化描述在公安领域的应用 |
5.4.1 基于语义视频对象的视频编码 |
5.4.2 主动智能监控 |
5.4.3 警务视频的联合应用 |
5.4.4 视频数据库查询系统 |
5.5 本章小结 |
第六章 FPGA+DSP视频图像处理平台 |
6.1 视频图像处理系统总体方案设计 |
6.2 硬件总体结构设计 |
6.2.1 硬件电路原理图 |
6.2.2 FPGA视频数据缓存电路设计 |
6.2.3 DSP视频数据缓存电路设计 |
6.2.4 视频数据高速传输通道设计 |
6.3 视频处理算法移植及优化 |
6.3.1 移植 |
6.3.2 优化 |
6.4 算法测试结果及分析 |
6.4.1 视频图像运动目标提取算法测试 |
6.4.2 视频运动目标识别算法测试 |
6.4.3 运动目标车辆颜色识别算法测试 |
6.4.4 运动目标车辆车牌识别算法测试 |
6.5 嵌入式视频信息结构化描述系统 |
6.6 本章小结 |
第七章 总结与展望 |
7.1 论文工作总结 |
7.2 论文主要创新点 |
7.3 今后工作展望 |
参考文献 |
作者在攻读博士学位期间发表的论文 |
作者在攻读博士学位期间授权的专利 |
攻读博士学位期间申请的软件着作权 |
作者在攻读博士学位期间参加的项目 |
致谢 |
四、视频对象提取系统的研究与实现(论文参考文献)
- [1]数字视频伪造被动取证技术研究综述[J]. 丁湘陵,杨高波,赵险峰,谷庆,熊义毛. 信号处理, 2021
- [2]高速运动物体图像识别与压缩方法研究[D]. 史启盟. 西安理工大学, 2021(01)
- [3]第一视角行为识别算法研究[D]. 张桂诚. 西安理工大学, 2021(01)
- [4]群体性事件视频特征挖掘方法与监测场景建模[D]. 袁林. 大连理工大学, 2021(01)
- [5]基于面部特征和肢体动作多模态抑郁症识别研究[D]. 李文涛. 齐鲁工业大学, 2021(09)
- [6]基于视频的车辆检测与跟踪系统设计与实现[D]. 姚一帆. 扬州大学, 2021(08)
- [7]基于广播电视媒体的食品药品安全舆情监测系统设计与实现[D]. 覃国孙. 广西大学, 2021(12)
- [8]基于视频分析的无线感知数据样本求精与泛化方法研究[D]. 贺怡. 西北大学, 2021
- [9]目标跟踪算法研究及在视频监控中的应用[D]. 秦琪. 长春工业大学, 2021(08)
- [10]面向公安业务的视频结构化描述研究与实现[D]. 汤志伟. 上海大学, 2015(02)