一、图像融合质量评价方法的研究(论文文献综述)
李帅军[1](2021)在《基于深度学习的低分辨率图像融合算法研究》文中研究说明无透镜显微成像系统因其低成本、小型化等优势为细胞便携检测设备开发提供了良好方案,但该系统采集的细胞图像存在分辨率低、特征信息少等问题。为了便于对细胞形态观察及检测,本文主要研究适用于无透镜成像系统的低分辨率细胞图像超分辨率重构和图像特征融合算法。针对上述问题,采用传统图像处理算法难以有效解决,本文提出生成式对抗网络的图像超分辨率算法和基于卷积自编码网络图像特征融合算法,完成对无透镜低分辨率细胞图像超分辨率重构和特征融合。首先针对无透镜系统对血液细胞样本预处理及数据集建立方法进行研究,并将建立的数据集用于超分辨率重建及特征融合网络训练测试。其次从网络结构、损失函数、训练策略等方面对无透镜系统生成式对抗超分辨率网络(LSRGAN,Lensless Super-Resolution Generative Adversarial Network)优化和改进,待网络模型训练稳定后测试并采用图像质量评价指标进行评价。重建结果表明:将本文超分辨率算法LSRGAN与Bicbic、SRGAN等重建算法相比,本文提出的算法在信息熵和灰度梯度上均表现良好,主观可见细胞边缘及纹理信息明显增强。细胞图像经超分辨率重建后,再由卷积自编码融合网络将同类组织细胞特征融合。融合结果为“虚拟细胞”集合,代表同类组织细胞特征形态统计结果。将多组正常和异常细胞图像(每组8幅)按不同比例混合随机融合测试,使用无参考评价指标信息熵、灰度梯度、均方差等对结果分析比较。再利用融合后图像建立检索数据库结合传统KNN分类算法对未知细胞检索分类诊断。融合结果表明:本文融合算法相较传统融合算法在信息熵上提升10.37%。标准差和灰度梯度上明显高于传统算法,仅灰度梯度比神经网络算法PCNN略低,证明融合网络可使图像细节特征增强,纹理信息更加丰富。图像检索结果,为前期辅助医疗诊断提供参考依据。
史玉华[2](2021)在《基于多元特征的立体图像质量评价的研究》文中研究说明随着立体成像技术的日益流行,3D高清影像产业不断发展,人们对于图像清晰度及视觉效果的要求越来越高。但是在3D图像的获取、传输、恢复和存储的过程中,会引入不同类型和程度的失真,从而造成立体图像质量下降,给人们理解和利用图像信息带来影响。因此立体图像质量评价的研究变得越来越重要,立体图像质量评价也是评价立体成像系统性能的一种有效方法。与2D图像相比,3D图像的每个视图不仅遭受2D图像会产生的单目失真,还存在对称或非对称的单目失真,包括双目混淆、深度感知误差,视觉不适等,这些失真又称为双目失真。所以,立体图像质量评价方法不仅要考虑立体图像左右视图的单目失真,还要考虑其双目的立体感知特性:深度、视差等。本文主要研究立体视觉特性在客观立体图像质量评价领域的应用,并给出了两种从立体感知方面考虑的无参考立体图像质量评价方法。首先,根据人眼视觉特性,提出一种基于多元特征的立体图像质量评价方法:选取视差、显着性、边缘这些能够表征立体图像质量的特征,提取特征并形成特征图,构建一个三通道的卷积神经网络对特征图进行训练,实现图像特征到质量分数的映射,从而预测立体图像的质量分数。其次,为了进一步提高模型的性能,提出一种结合VGG-16与立体图像深度显着性特征的无参考立体图像质量评价方法。该方法改进显着性检测模型SDSP(Saliency detection by combinning simple priors,SDSP)并通过小波变换融合立体图像的深度特征,得到深度显着性特征;改进卷积神经网络VGG-16,以提高算法的运行速度;将深度显着性特征、对比度特征以及亮度系数归一化特征作为网络的输入,通过训练得到回归模型,预测立体图像的质量分数。最后在LIVE 3D IQA Phase I、LIVE 3D IQA Phase II和NBU 3D IQA数据库中分别对本文提出的两种算法进行验证及分析。实验结果表明模型预测的立体图像质量分数符合人类主观感知,且具有较好的适用性和鲁棒性。
刘明葳[3](2021)在《各向异性导向滤波的红外与可见光图像融合》文中进行了进一步梳理红外与可见光图像融合技术是目前多传感器图像融合领域研究和应用最为广泛的技术之一。由于红外与可见光图像传感器成像机理不同,同一场景下的红外与可见光图像之间存在良好的互补特性。因此,将红外图像中的目标信息和可见光图像中的背景细节信息进行有效融合,以提高目标的可辨识度,获得对场景更全面、准确的描述,对后续应用如目标识别、检测和跟踪等具有重要意义。但目前红外与可见光图像融合中易出现边缘细节信息丢失、存在光晕伪影和虚假噪声等问题。论文深入探讨了基于多尺度变换的红外与可见光图像融合算法及边缘保持滤波技术,从充分获取多源图像的重要特征和提高红外与可见光图像融合质量入手,采用一种新型的基于边缘保持滤波技术的多尺度变换工具——各向异性导向滤波(Anisotropic Guided Filtering,Anis GF),实现多源图像边缘细节信息和背景信息的有效提取和保留,提高融合结果的质量。主要研究内容如下:对目前主流的基于多尺度变换的红外与可见光图像融合算法进行了深入探讨,分析了这些算法的基本原理和优缺点。在此基础上,针对传统多尺度变换易在图像边缘处产生光晕伪影的问题,提出了基于各向异性导向滤波的多尺度分解模型。该模型将源图像分解为包含大尺度变化的基础层和包含小尺度细节信息的系列细节层,充分实现了图像特征的尺度分离。最终融合结果表明该分解模型有效保留了多源图像的边缘轮廓信息和纹理结构。在多尺度各向异性导向滤波分解模型基础上,为了进一步提高融合结果的对比度和清晰度,有效改善融合结果的质量,提出了基于相位一致性算子和对比像素显着性的初始权重图构造算法。该算法利用相位一致性算子和高斯滤波计算显着图,进而通过对比像素显着性得到初始权重二值图。实验结果表明,该模型得到的初始权重图可捕捉和提取到更多源图像的细节特征和边缘轮廓信息,同时可在一定程度上抑制噪声干扰,有助于后续更有针对性的处理初始权重二值图。针对现有大多融合算法在融合过程中获得的初始权重图可能存在噪声或者出现与图像边界无法对齐的现象,提出了一种全新的基于各向异性导向滤波的初始权重图优化算法。通过各向异性导向滤波优化权重图,在有效克服噪声干扰的同时能避免细节“光晕”。在优化过程中,采用源图像作为导向图像,保持了空间连续性,使融合图像的质量进一步得到提升。为验证所提算法的有效性与适用性,在Road Scene和TNO数据集上分别与4种多尺度变换融合算法和4种经典融合算法进行了定性定量分析。实验结果表明,本文所提算法不仅在边缘细节、背景保存和目标完整度上优于其他对比算法,还能有效抑制细节“光晕”和伪影,同时具有尺度感知特性,有效提升了融合图像的质量。
李静[4](2021)在《像素级红外与可见光图像融合方法研究》文中指出红外与可见光图像融合旨在将同一场景的多模态图像结合,生成一幅能够准确、全面描述该场景的图像。红外传感器对热辐射信息较为敏感,能够在伪装或低照度条件下成像,故红外图像能够较好的识别热源目标,但红外图像存在背景信息不足的问题。可见光传感器通过物体反射光线成像,能够捕获场景的背景信息。因此,红外与可见光图像融合能够同时保存红外目标信息和可见光图像的纹理细节信息,使融合图像更好地满足特定场景和特殊环境下的观测需求。红外与可见光图像融合已经在公安敏感目标跟踪识别、周界防护、事故鉴定取证等方面发挥重要作用,逐渐服务于边防、社会治安、反恐防恐等公安业务。生成对抗网络(Generative Adversarial Networks,GAN)具有较强的数据分布拟合能力,已成为红外与可见光图像融合的研究热点。但基于GAN的红外与可见光图像融合方法中仅使用单鉴别器,而导致融合结果对未参与鉴别的源图像信息保存不足,同时,基于GAN的融合模型也缺乏感知图像典型特征区域的能力,导致融合结果对比度不高且对红外目标信息和可见光图像的纹理细节信息保存不完整。因此,本文提出多种基于GAN的红外与可见光图像融合算法。本文的主要研究内容和创新点如下:1.基于双鉴别器生成对抗网络的红外与可见光图像融合方法针对基于GAN的红外与可见光图像融合方法使用单鉴别器结构,使融合结果拟合可见光图像的数据分布以保存纹理细节信息,导致对红外图像信息保存不足的问题,本文提出了一种基于双鉴别器生成对抗网络的融合方法。该方法在生成对抗网络中设计两个鉴别器,使生成图像同时拟合可见光和红外图像数据分布,以同时保存红外目标信息和可见光图像的纹理细节信息。除此之外,为了更好的保存可见光图像中的纹理信息,该方法提出了基于局部二值模式(Local binary patterns,LBP)的损失函数。最后通过消融实验证明了提出方法的合理性和有效性,并在两个不同公开数据集上从定性与定量两个方面与其他7种融合方法做了实验对比。实验证明该方法能够克服单鉴别器生成对抗网络图像融合方法中信息保存不足的问题,且在定性与定量评价中明显优于单鉴别器生成对抗网络方法。2.基于注意力机制和生成对抗网络的红外与可见光图像融合方法针对基于GAN的红外与可见光图像融合方法不能重点感知图像典型目标和细节信息,导致融合结果中红外目标信息对比度低、可见光图像纹理细节模糊等问题,本文提出了一种基于注意力机制和生成对抗网络的融合方法。该方法在生成器中利用编解码网络结构,考虑红外与可见光图像具有不同的模态,对其分别编码,再将两者特征结合共同解码,生成融合图像。为了充分提取源图像特征,该方法在编码结构中的不同尺度网络层分别插入注意力模块,计算各个尺度的注意力图,再将不同尺度注意力图与解码结构对应尺度的网络层结合,使生成器从不同尺度感知图像目标区域和细节信息。为了更好地保存可见光图像的纹理细节特征,该方法提出了一种基于生成图像和可见光图像的特征损失函数。消融实验证明该方法能够充分感知源图像不同尺度特征,同时保存和增强红外目标信息和可见光纹理细节信息。该方法在两个公开数据集上与7种融合算法相比均取得较好的融合结果,并在定性和定量评价中该方法均优于其他基于GAN的融合方法。3.基于双注意力机制的红外与可见光图像融合方法针对基于GAN的红外与可见光图像融合研究中,仅在生成器使用注意力机制,而鉴别阶段缺乏注意力感知能力,导致融合结果对红外目标信息和可见光纹理细节保存不完整等问题,本文提出了一种基于双注意力机制的融合方法。该方法设计一种多尺度注意力模块,该模块在不同尺度空间中将空间注意力和通道注意力结合,并将其同时应用在GAN的生成器和鉴别器。在生成器中,考虑红外与可见光图像多模态差异,红外图像包含更多目标信息,可见光图像包含更多纹理细节信息,因此分别设计红外多尺度注意力网络和可见光多尺度注意力网络计算红外和可见光注意力图,最后通过融合网络生成融合图像。在鉴别器中,采用双鉴别器结构并将注意力模块分别与鉴别器结合,促使鉴别器能通过感知图像目标区域和细节信息来鉴别图像。同时,为了保存更多目标信息和背景信息,该方法提出了一种注意力损失函数,利用鉴别器中的注意力图计算注意力损失。消融实验证明该方法不仅能够对红外目标信息和可见光纹理细节信息进行增强,而且对源图像信息保存更加完整。该方法在两个公开数据集上与7种融合算法相比均取得了较好的融合结果,且在定性和定量评价中均优于其他融合方法。
卢航远[5](2021)在《基于空间-光谱信息保持的遥感图像融合方法研究》文中研究说明地理信息管理主要依托于卫星遥感技术生成的遥感数据,实现对自然资源利用情况的多维度监测。为了精确地反映自然资源利用的差异情况,地理信息的管理迫切需要高空间分辨率的多光谱(High-Spatial Resolution Multispectral,HRMS)遥感图像作为数据基础。然而,由于现有卫星传感技术的局限,遥感卫星无法直接采集HRMS图像。它们通常携带两种传感器,分别用于生成低空间分辨率的多光谱(Multispectral,MS)图像,以及高空间分辨率的全色(Panchromatic,PAN)图像。由于两种图像具有互补的特征和信息,利用遥感图像融合技术将两种图像融合,可以克服硬件的制约,以获得对特定场景描述更加全面、精确和可靠的HRMS图像。遥感图像融合是增强图像的一个重要初始步骤,融合后的HRMS图像将为地理信息的管理提供重要的数据资源保障。高质量的遥感融合图像应该保持PAN图像的空间信息,同时保留来自MS图像的光谱信息。近年来,遥感图像融合技术取得了快速发展,但仍然存在一些挑战,如细节注入不准确导致融合图像空间失真;忽略MS图像中与PAN图像差异的结构信息,导致空间与光谱失真;构建的融合模型难以平衡光谱与空间信息,以及难以平衡算法的有效性与高效性;当PAN图像与MS图像低相关时容易导致融合图像的光谱失真等问题。本文通过分析影响融合质量的关键因素,并对相应的关键技术进行研究,从而实现如下目标:(1)构建准确的融合模型,并优化模型的参数;(2)获得与MS图像高相关的细节,减少光谱失真;(3)实现空间与光谱的双保真;(4)实现算法的高效率。论文的主要创新工作如下。(1)针对多尺度分析的融合方法容易产生空间失真的问题,本文提出了一种基于自适应注入模型的融合方法。首先,通过模拟MS传感器的特性定义了一种多尺度高斯滤波器,并用该滤波器卷积PAN图像提取细节,从而得到与MS图像高度相关的细节。然后,综合考虑光谱信息与细节信息提出了一种自适应的注入系数,实现准确的细节注入。接着,提出了一种新的边缘保持权重矩阵,以更好地保持融合图像的边缘信息,实现空间与光谱的双保真。最后,将优化后的注入系数与细节相乘注入到上采样后的MS图像中,得到最终融合结果。本文对提出的方法进行了性能分析,并在多个卫星数据集上进行了大量的测试,与一些先进的遥感图像融合方法进行了对比。实验结果表明,所提出的方法在主观与客观评价上都能达到较好的结果。(2)为了保持高空间分辨的同时减少光谱失真,并提高算法效率,本文提出了一种基于模糊逻辑和显着性测量的融合模型。在该模型中,设计了一种基于全局显着性测量的模糊规则,对MS图像和PAN图像的细节信息进行融合,从而得到与MS图像高度相关的细节信息。此外,为了更好地保持融合图像的边缘,本文根据局部显着性测量对PAN图像和MS图像的边缘进行融合。将上述获得的融合细节与融合边缘共同作用于MS图像,得到最终的HRMS图像。对4个卫星数据集的遥感图像进行了一系列实验分析,验证了该方法的有效性。与一些最新的遥感图像融合方法相比,所提出的方法在主观和客观评价方面都体现出良好的性能。(3)针对传统的融合方法不能很好地平衡光谱与空间信息的问题,本文提出了一种基于条件随机场(Conditional Random Fields,CRFs)的遥感图像融合模型。该模型通过设计CRFs中的状态特征函数,使预测的HRMS图像在模糊滤波后与上采样的MS图像保持一致,以保持光谱信息。为了获得合适的模糊函数,在状态特征函数中,设计了一种新的滤波器获取方法,以构建准确的退化模型。此外,在构建的模型中通过定义CRFs的转移特征函数,使HRMS像素的变换能够跟随PAN图像的梯度变化,保证融合图像的清晰度。最后,采用交替方向乘子法求解模型的增广拉格朗日函数,以得到最终的融合结果。本文对提出的方法进行了性能分析,通过大量的仿真实验和真实实验,并与现有的融合方法相比,证明了所提出的方法具有较高的计算效率和更好的融合效果,验证了提出方法的有效性。(4)针对PAN图像与MS图像低相关时导致的光谱失真、MS图像各通道所需细节提取不准确导致的空间失真等问题,提出了一种基于联合引导细节提取的融合方法。首先,通过一个由MS图像的强度分量引导的变分模型构造一个新的PAN图像,提高PAN图像和MS图像之间的相关性,降低光谱失真。其次,为了从新的PAN图像中获得准确的细节信息,通过由降尺度的MS图像引导的回归模型获取自适应系数,以提取PAN图像的细节,进一步降低空间失真。最后,将提取的细节注入到上采样的MS图像中获得融合的图像。对所提出的方法进行了大量的仿真和真实实验,并将实验结果与现有的融合方法进行了对比。实验结果表明,该方法能高效地获得空间与光谱信息保真的HRMS图像。本文提出的遥感图像融合方法有效地提升了HRMS图像的空间与光谱质量,并且算法代价较小,可为地理信息管理中的土地利用情况、国土资源普查等监测任务提供实时准确的数据支撑。
曾妍[6](2021)在《基于视觉感知的多曝光融合图像客观质量评价研究》文中研究说明随着数字媒体和网络技术的发展,人们对视觉体验的要求越来越高,传统的成像系统难以满足人们的视觉体验要求。受硬件设备水平的限制,相机传感器能采集到的亮度动态范围远远小于真实世界的亮度动态范围,所以拍摄的图像中存在过曝光和欠曝光的区域,导致图像细节丢失。因此,高动态范围成像技术应运而生。高动态范围成像技术将同一场景的多张不同曝光级别的低动态范围图像融合成为一张细节丰富高质量融合图像,这一技术弥补了硬件设备的不足,成为学术界和工业界的一项热门研究。近些年,多曝光融合技术的研究层出不穷,对于同一拍摄场景,不同的多曝光融合算法生成的融合图像的质量有很大差异,因此,如何准确高效地评估融合图像感知质量成为图像融合技术领域的一项重要研究内容。本论文专注于评估多曝光融合图像的视觉感知质量,研究不同于自然图像的失真类型,并针对这些失真类型提取有效的视觉特征,构建特征表达模型,实现对融合图像质量的准确预测。具体内容如下。(1)多曝光融合技术通常需要源图像序列完美对齐,然而拍摄源图像序列时会发生相机抖动产生的全局运动和物体移动产生的局部运动,这可能会导致最终融合的图像产生失真,这种失真被称作“鬼影”,这极大地影响了融合图像的视觉质量,因此,很多研究者致力于研究抑制鬼影的多曝光融合算法。然而,多曝光融合图像质量评估的研究却十分有限。因此,本论文提出了一个基于超像素分割的多曝光融合图像质量评价算法。首先,在超像素分割技术的帮助下,我们利用融合图像与每张源曝光图像间的结构不一致性图将融合图像分割为信息量较小区域和信息量较大区域。随后,用拉普拉斯金字塔对多曝光图像序列和融合图像进行分解,在分解子带上分别计算信息量较小和信息量较大区域的质量图。最后,考虑到人类视觉系统将更多注意力集中在变化较为复杂的区域,因此提出基于信息论的自适应加权策略计算融合图像的质量分数。大量对比实验证明提出的算法性能优于目前的图像质量评价算法。(2)卷积神经网络已经成功地应用于很多图像处理和计算机视觉任务中,比如图像识别、语义分割和人脸识别等计算机视觉任务。本论文提出了一个基于卷积神经网络的无参考多曝光融合图像的质量评价模型,将卷积神经网络引入到预测多曝光融合图像感知质量的研究中。网络分为三个部分:全局特征提取、局部特征提取和质量预测。全局特征提取用于提取融合图像的整体图像内容。由于融合图像中有局部的鬼影失真,因此我们采用多尺度局部失真感知模块提取融合图像的局部特征。最后将全局特征和局部特征连接在一起,采用多层感知机回归得到融合图像的客观质量分数。实验结果表明,提出的网络的性能优异,并且还能应用于多曝光融合算法的超参数选择。综上所述,本论文提出的针对多曝光融合图像的客观质量评价算法取得较好的性能,对多曝光图像融合算法具有一定的研究意义和实际应用价值。
高元浩[7](2021)在《基于分离表示学习的图像融合方法研究》文中研究说明图像融合是将多个传感器在同一场景下捕获的包含不同信息的图像整合成一幅新的高质量融合图像。相比于原始图像,融合图像具有更丰富的信息,可以在军事,环境监测,数码摄影和医学诊断等领域发挥更大的作用。图像融合算法根据不同的融合策略可以分为基于空间域的图像融合算法,基于变换域的图像融合算法和基于深度学习的图像融合算法。基于空间域的图像融合算法首先将输入图像分解为小块或根据某种标准划分的区域,然后计算对应区域的显着度,最后将匹配程度最大的区域合并形成融合图像。基于变换域的图像融合算法通过多尺度几何分解将源图像变换到一些特征域,然后对多个输入图像的特征进行融合并逆变换生成融合图像。相比于传统方法,卷积神经网络具有更好的特征提取能力和更好的鲁棒性。因此,基于图像对中存在着共享的公有特征和特定的私有特征认知,研究网络对图像特征的分离表示学习并设计相应的融合规则可以提升融合效果,得到信息丰富,细节清晰的融合图像。本文的主要研究内容如下:(1)自编码网络作为无监督学习的模型,减少了手工制作和标注数据集的烦恼,同时自编码网络对信息特征的编码解码能力使得在图像融合领域,越来越多的人使用卷积自编码网络框架对图像进行特征提取,手工设计相应的融合规则并重构这些特征以得到最后的融合图像。但是这些算法往往只是提取出一对源图像上的全局特征,然后设计复杂的融合规则来融合这些特征,这容易导致信息的丢失,进而影响最后的融合结果。在同一场景下被捕获的一对红外与可见光图像虽然具有不同的模态,但是同样具有共享的公有信息和互补的私有信息,受益于残差网络的启发,在训练学习阶段,通过网络分支间特征层面的互换和相加,强制每一个分支映射到一幅具有全局特征的标签图上来鼓励各个分支学习对应模态图像的的私有特征。在融合预测阶段,采用最大值融合策略融合私有特征,并在解码层与学习得到的公有特征相叠加,最后解码出集成了红外和可见光图像信息的融合图像。使用在NYU-D2上合成的多聚焦图像数据集训练该模型,在TNO真实的红外和可见光数据集上测试,实验结果表明,与当前主流的红外与可见光融合算法相比,所提出的算法在主观效果和客观评价指标上都取得了较好的成绩。(2)在多模态图像的基础上,利用深度自编码网络对多模态图像进行进一步的研究。基于对图像私有信息与公有信息的认知,提出了并行结构的联合自编码网络以同步提取图像的上述信息。在网络结构上,将编码器分为两个私有分支和两个公有分支,私有分支用于互补特征的学习,而公有分支用于冗余特征的学习。在特征融合阶段,分别设计了对应的融合策略将冗余和互补特征集成到融合特征中,通过特征的可视化,可以看到设计的融合策略都较好地融合了图像信息并解码出了好的融合结果。通过与主流的GFF,LPSR,GTF,CSR,MFCNN,Deepfuse,GAN,Densefuse,IFCNN算法进行比较,所提出的方法在主观效果上细节信息丰富,图像结构良好,更适合人类视觉的感知,并在多个客观指标上表现优异。(3)对联合自编码网络进一步研究,结合对比学习,在图像的特征子空间内采用余弦函数作为约束,以最大程度的区分私有特征和公有特征。同时,为了使得公有特征具有唯一性,将公有分支合二为一,以一幅同时包含源图像对信息的公共图像作为输入,而将一对源图像分别输入两个私有分支,公有分支与私有分支的输出相结合并映射到两幅源图像上以学习图像的特征。将图像的分离表示学习推广至多聚焦图像,红外与可见光图像以及医学图像领域。针对提取到的特征,设计了新的融合规则以适应多领域的图像融合。提出的算法在上述领域的公开数据集上与当下的前沿算法相比较,实验结果表明,所提算法在主观效果和客观评价指标上都取得了良好的成绩。(4)为了解决自编码网络无法端到端生成融合图像的问题并减少相应融合规则的设计,提出了一种基于自适应特征融合的端到端训练无监督模型。网络利用自编码模块提取出图像的特征,对特征级联后直接解码出图像,由于生成的图像受到联合损失函数的约束,得以保留源图像的细节并具有良好的结构信息和梯度信息,图像整体结构分明。实验结果证明,该模型在主观效果和客观指标上不输于主流算法与本文之前提出的算法。
汪杰[8](2021)在《基于图像融合的螺纹视觉测量技术研究》文中指出现代工业对螺纹检测不仅有较高的精度要求,还需要在检测效率上实现高效,以满足现代工业高效率要求。对螺纹进行接触式测量,测量精度往往不高,也无法实时的监测螺纹制造过程。应用机器视觉进行螺纹检测,由于螺旋升角的存在无法获取清晰的螺纹边缘。引入螺纹图像的多聚焦融合,对多幅牙廓失真的螺纹图像进行融合处理,从而获得边缘足够清晰的螺纹图像。通过研究螺纹图像的清晰度评价,创新的采用螺纹的边缘图像进行评价值计算,得到的评价值可以有效的反映螺纹融合图像的清晰度。最后通过实验计算融合图像和未融合图像牙型角进行对比分析。本文主要的研究内容分为以下四部分:(1)根据螺纹牙廓的特点,分析牙廓边缘上的点的成像特点,建立了螺纹边缘成像的数学模型,对螺纹牙廓失真的原因进行分析,同时为改善螺纹边缘质量,选择有效的图像预处理方法。(2)研究了螺纹图像的自动配准和图像融合方法,通过将边缘不清晰的多幅螺纹图像应用螺纹图像融合算法处理后,获得了边缘清晰的螺纹牙廓图像。(3)研究图像的清晰度评价方法,找到了螺纹图像的质量评价方法。主要是对融合后的螺纹图像进行质量评价,通过实验对融合前后的螺纹图像进行评价值计算。(4)研究了融合后的螺纹图像牙型角参数计算方法,先用亚像素定位方法提取清晰的螺纹边缘,通过实验计算融合前后的螺纹的牙侧角,同时进行对比实验。得出融合后的螺纹图像牙型角相对误差更小。
曹四华[9](2021)在《基于双尺度分解的多模态医学图像融合算法研究》文中进行了进一步梳理多模态医学图像融合是图像融合的重要分支,是指通过某种方法将两张或多张来自不同成像模式/模态的医学图像融合成一张图像的过程。生成的融合图像与单一模态的医学图像相比,包含的信息更加丰富,纹理结构更加清晰,病灶更加明显,从而能提高医生在临床诊断与治疗中的准确度与效率。目前多模态医学图像融合主要聚焦于解剖图像融合(CT/MRI,MRI-T1/MRA等)以及解剖图像与功能图像的融合(MRI/PET,MRI/SPECT等),本文也将在这两类医学图像上进行融合研究。针对目前主流的多模态医学图像融合方法效率较低或者融合质量较差等问题,本文提出了两种有效的多模态医学图像融合新方法。论文的主要创新工作如下:1)为了在计算效率和融合质量之间达到最佳平衡,本文提出了一种基于加权局部能量匹配度和改进空间频率(Spatial Frequency,SF)的多模态医学图像融合方法。首先,利用潜在低秩表示理论学习一个分解矩阵,使用预训练的分解矩阵将源图像分解为基础部分和显着部分。然后,为了自适应地为基础部分设计融合策略,本文提出了一种基于加权局部能量匹配度的融合规则,该规则通过计算基础部分对应像素之间的匹配度来构造。同时,结合主对角线SF和次对角线SF的特点,本文设计了一种基于改进SF和L2范数的融合策略来融合显着部分。最后,将融合后的基础部分和显着部分结合得到最终的融合图像。在多组医学图像上的实验结果表明,与现有的主流融合方法相比,提出的方法在主观视觉和客观评价指标方面都具有优越的表现。2)在解决上述问题的基础上,结合目前医学图像需要在更高的分辨率下进行观察,本文提出了一种基于边缘检测和视觉显着性映射的多模态医学图像超分辨融合方法。首先,该方法通过基于梯度算子的双尺度分解方法将源图像分解为基础层和细节层。然后,利用加权局部能量对基础层进行融合,以尽可能地保留融合图像中源图像的能量信息。在细节层,为了尽可能地提取高频图像中的细节信息,并且充分保留图像的显着特征信息,本文设计了一种基于边缘检测和视觉显着性映射的细节层融合规则。最后,将融合后的基础层和细节层结合,得到融合后的图像。此外,本文首次将医学图像超分辨率引入到多模态医学图像融合领域。在多组医学图像上的实验结果表明,提出的方法在主观视觉效果和客观评价指标上均优于现有的多模态医学图像融合方法。其次,提出的医学图像超分辨率能有效地提高多模态医学图像融合结果的融合质量。特别地,提出的方法还适用于不同分辨率的多模态医学图像融合任务。
桑伟汉[10](2021)在《质量驱动的自适应图像融合算法研究》文中研究说明图像融合是图像处理领域中的一个重要分支,可以将来自不同的传感器对于同一场景中的信息采集后得到的图像数据进行处理,保留各自数据中的有用信息并剔除掉冗余的信息,得到含有集成信息的高质量图像。图像融合在军用和民用领域都发挥着重要的作用。深度学习目前发展势头迅猛,在图像处理领域具有非常广泛的应用,但是在图像融合领域,深度学习方法对比传统方法并没有明显的优势,原因主要有两点:一、图像融合领域没有绝对意义上最好的融合结果,使得深度学习方法没有真值的指导,难以发挥网络强大拟合能力的优势;二、显着区域的判断、对高频信息和低频信息等重要信息的不同处理方法在图像融合中是非常重要的,这些都难以在一个端到端的深度学习模型中进行实现。但是深度学习方法仍具有其独特的长处。深度学习可以自动发掘出图像内部的特征信息,不需要手动设置特征处理的规则;深度学习具有很强的系统适应性,其训练得到的模型可以很方便地在新的场景中进行改进和优化。因此,本文对基于深度学习的图像融合方法进行了探索和研究,主要研究内容如下:首先,本文调查了图像融合的近期研究工作,介绍了图像融合领域常见的几种传感器图像,对传统像素级图像融合方法进行了整理,并分析了基于深度学习的图像融合方法的优缺点,对目前常用的图像融合质量评价指标进行了介绍。然后,在目前的基于深度学习的图像融合方法的研究基础上,提出了一种基于多层生成对抗网络的图像融合方法。本文在Fusion GAN的启发下,将输入的待融合图像分解成多层的下采样金字塔,并使用多层的网络结构对其进行处理和融合,使得网络能够充分地对全局信息和细节信息进行区分学习,让最后的融合图像结果具有更多的细节信息和更清晰的边缘。与Fusion GAN和多种传统图像融合方法进行对比,验证了本文提出的理论的有效性。最后,本文在基于神经网络的图像融合模型上,提出一种基于质量驱动的图像融合方法。通过构造图像融合质量评价指标的损失函数,不断优化图像融合网络的参数,以解决输入图像与训练数据集存在差异的问题,使输出图像具有更好的融合质量,是一种质量驱动的自适应图像融合方法。
二、图像融合质量评价方法的研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、图像融合质量评价方法的研究(论文提纲范文)
(1)基于深度学习的低分辨率图像融合算法研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 图像超分辨率技术的发展及现状 |
1.2.2 图像融合技术的发展及现状 |
1.3 论文研究内容 |
1.4 本文的结构安排 |
2 图像融合方法及评价指标 |
2.1 基于传统的图像融合方法 |
2.1.1 基于空域的图像融合方法 |
2.1.2 基于变换域的图像融合方法 |
2.1.3 基于稀疏表示的图像融合方法 |
2.2 基于神经网络的融合方法 |
2.2.1 神经网络基本概述 |
2.2.2 基于深度学习的图像融合方法 |
2.3 图像质量评价指标 |
2.3.1 图像主观质量评价 |
2.3.2 图像客观质量评价 |
2.4 本章小结 |
3 无透镜显微成像系统 |
3.1 无透镜显微成像技术 |
3.1.1 无透镜成像采集系统 |
3.1.2 全息恢复处理 |
3.1.3 无透镜全息图像重建仿真模拟 |
3.2 白细胞数据集制作 |
3.2.1 血液样品预处理 |
3.2.2 正常及病变细胞数据集制作 |
3.3 本章小结 |
4 基于生成式对抗网络的图像超分辨率算法 |
4.1 相关理论 |
4.1.1 生成对抗网络原理 |
4.1.2 LSRGAN网络优化改进思想 |
4.2 基于生成对抗网络LSRGAN优化设计 |
4.2.1 网络结构设计 |
4.2.2 损失函数 |
4.2.3 训练策略 |
4.3 实验结果及分析 |
4.3.1 实验环境配置 |
4.3.2 实验训练参数 |
4.3.3 实验效果评价 |
4.4 本章小结 |
5 基于卷积自编码网络的图像特征融合算法 |
5.1 基于卷积自编码网络的图像融合方法 |
5.1.1 自编码融合网络结构 |
5.1.2 损失函数构建 |
5.2 图像检索及诊断 |
5.3 实验结果及分析 |
5.3.1 网络参数设置 |
5.3.2 训练测试数据集 |
5.3.3 融合网络结果分析 |
5.3.4 图像检索诊断结果分析 |
5.4 本章小结 |
6 总结与展望 |
6.1 工作总结 |
6.2 展望 |
致谢 |
参考文献 |
攻读学位期间主要研究成果 |
(2)基于多元特征的立体图像质量评价的研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 引言 |
1.2 立体图像技术 |
1.2.1 双目视觉原理 |
1.2.2 双目立体图像的获取 |
1.2.3 立体图像的显示技术 |
1.3 立体图像质量评价方法 |
1.3.1 立体图像质量评价研究现状 |
1.3.2 卷积神经网络研究现状 |
1.4 本文的研究内容及章节安排 |
第二章 立体图像质量评价理论基础 |
2.1 人类视觉系统的立体感知特性 |
2.1.1 HVS的生理效应 |
2.1.2 HVS的心理效应 |
2.2 人眼视觉系统的立体视觉效应 |
2.3 卷积神经网络 |
2.3.1 卷积神经网络的发展 |
2.3.2 卷积神经网络的概念 |
2.4 立体图像质量评价数据库及客观评价指标 |
2.4.1 立体图像质量评价数据库 |
2.4.2 立体图像质量评价性能评估指标 |
2.5 本章小结 |
第三章 基于多元特征的立体图像质量评价 |
3.1 图像特征 |
3.1.1 图像显着特征 |
3.1.2 视差特征 |
3.1.3 立体图像的边缘特征 |
3.2 基于多元特征的SIQA的网络架构 |
3.3 实验结果与分析 |
3.4 本章小结 |
第四章 基于深度显着性特征的立体图像质量评价 |
4.1 图像特征提取 |
4.2 立体图像深度显着性特征 |
4.2.1 立体图像深度特征 |
4.2.2 颜色、边缘特征提取 |
4.2.3 图像融合 |
4.3 立体图像对比度特征 |
4.4 亮度系数归一化 |
4.5 基于深度显着特征的SIQA的网络架构 |
4.6 实验过程 |
4.7 结果与分析 |
4.8 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
作者简介 |
(3)各向异性导向滤波的红外与可见光图像融合(论文提纲范文)
摘要 |
Abstract |
注释说明清单 |
1 绪论 |
1.1 研究背景及意义 |
1.2 红外与可见光图像融合的研究概况 |
1.2.1 国内外应用现状 |
1.2.2 国内外研究现状 |
1.2.3 多尺度变换算法目前存在的问题 |
1.3 研究内容及章节安排 |
2 红外与可见光图像融合技术理论 |
2.1 红外与可见光图像的成像机理及特性 |
2.2 红外与可见光图像融合预处理 |
2.3 基于多尺度变换的红外与可见光融合算法 |
2.3.1 多尺度变换工具 |
2.3.2 多尺度变换的融合规则 |
2.4 红外与可见光图像融合的评价标准 |
2.4.1 主观评价标准 |
2.4.2 客观评价标准 |
2.5 本章小结 |
3 基于边缘保持滤波的多尺度变换 |
3.1 边缘保持滤波技术研究概况 |
3.2 各向异性导向滤波 |
3.2.1 原始导向滤波算法局限性分析 |
3.2.2 各向异性导向滤波的具体实现 |
3.3 基于各向异性导向滤波的多尺度分解 |
3.3.1 基于AnisGF的多尺度分解方法 |
3.3.2 基于AnisGF多尺度分解的模型构造 |
3.4 实验验证 |
3.4.1 GF与AnisGF的边缘保持特性实验结果与分析 |
3.4.2 基于AnisGF多尺度分解的实验结果与分析 |
3.5 本章小结 |
4 基于多尺度各向异性导向滤波的红外与可见光图像融合 |
4.1 算法框架 |
4.2 基于相位一致性的初始权重图构造 |
4.2.1 相位一致性算法 |
4.2.2 基于相位一致性的初始权重图构造模型 |
4.3 基于各向异性导向滤波的权重图优化 |
4.4 融合重建 |
4.5 本章小结 |
5 实验结果与分析 |
5.1 数据集 |
5.2 参数设置 |
5.3 基于RoadScene数据集的实验结果分析 |
5.3.1 对比实验设置 |
5.3.2 融合结果定性分析 |
5.3.3 融合结果定量分析 |
5.4 基于TNO数据集的实验结果与分析 |
5.4.1 对比实验设置 |
5.4.2 融合结果定性分析 |
5.4.3 融合结果定量分析 |
5.5 本章小结 |
6 总结与展望 |
6.1 全文总结 |
6.2 研究展望 |
参考文献 |
在学研究成果 |
致谢 |
(4)像素级红外与可见光图像融合方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 图像融合简介 |
1.2 研究目的及意义 |
1.3 红外与可见光图像融合研究现状 |
1.3.1 基于传统方法的红外与可见光图像融合研究现状 |
1.3.2 基于深度学习的红外与可见光图像融合研究现状 |
1.4 红外与可见光图像融合在公共安全领域应用 |
1.5 红外与可见光图像融合数据集和融合图像质量评价 |
1.5.1 红外与可见光图像融合数据集 |
1.5.2 融合图像质量评价 |
1.6 红外与可见光图像融合的主要难点 |
1.7 本文主要创新点 |
1.8 本文研究内容与组织结构 |
2 基于双鉴别器生成对抗网络的红外与可见光图像融合 |
2.1 引言 |
2.2 相关工作 |
2.2.1 生成对抗网络及其改进 |
2.2.2 生成对抗网络在红外与可见光图像融合中的应用 |
2.3 融合算法 |
2.3.1 算法框架 |
2.3.2 生成器网络结构 |
2.3.3 鉴别器网络结构 |
2.3.4 损失函数 |
2.4 实验分析 |
2.4.1 实验数据及参数设置 |
2.4.2 实验结果与分析 |
2.5 本章小结 |
3 基于注意力机制和生成对抗网络的红外与可见光图像融合 |
3.1 引言 |
3.2 相关工作 |
3.3 融合算法 |
3.3.1 算法框架 |
3.3.2 生成器网络结构 |
3.3.3 注意力计算模块 |
3.3.4 鉴别器网络结构 |
3.3.5 损失函数 |
3.4 实验分析 |
3.4.1 实验数据及参数设置 |
3.4.2 实验结果分析 |
3.5 本章小结 |
4 基于双注意力机制的红外与可见光图像融合 |
4.1 引言 |
4.2 相关工作 |
4.3 融合算法 |
4.3.1 算法框架 |
4.3.2 生成器网络结构 |
4.3.3 多尺度注意力计算模块 |
4.3.4 鉴别器网络结构 |
4.3.5 损失函数 |
4.4 实验分析 |
4.4.1 实验数据及参数设置 |
4.4.2 实验结果分析 |
4.5 本章小结 |
5 本文提出方法对比分析 |
5.1 引言 |
5.2 TNO数据集实验对比 |
5.3 RoadScene数据集实验对比 |
5.4 计算效率对比 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
攻读博士期间发表的学术论文 |
致谢 |
(5)基于空间-光谱信息保持的遥感图像融合方法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状分析 |
1.2.1 基于成分替代融合方法的研究进展 |
1.2.2 基于多尺度分析融合方法的研究进展 |
1.2.3 基于变分优化融合方法的研究进展 |
1.2.4 基于深度学习融合方法的研究进展 |
1.3 本文研究内容和组织结构 |
1.3.1 挑战与研究内容 |
1.3.2 本文组织结构 |
第2章 遥感图像融合的基础知识 |
2.1 遥感图像融合的数据集 |
2.2 遥感图像融合的主要模型 |
2.2.1 基于成分替代的注入模型 |
2.2.2 基于多尺度分析的注入模型 |
2.2.3 基于变分优化的模型 |
2.3 遥感图像融合的质量评价 |
2.3.1 降尺度下的客观质量评价 |
2.3.2 全尺度下的客观质量评价 |
2.4 本章小结 |
第3章 基于自适应注入模型的融合方法 |
3.1 引言 |
3.2 引导滤波 |
3.3 自适应注入模型的融合算法 |
3.3.1 自适应注入模型的方法框架 |
3.3.2 高斯滤波估计及细节提取 |
3.3.3 自适应注入量系数 |
3.3.4 边缘信息保护 |
3.4 实验结果分析 |
3.4.1 实验设置 |
3.4.2 性能分析 |
3.4.3 降尺度实验 |
3.4.4 全尺度实验 |
3.5 本章小结 |
第4章 基于模糊逻辑和显着性测量的融合方法 |
4.1 引言 |
4.2 模糊逻辑 |
4.3 基于模糊逻辑和显着性测量的融合算法 |
4.3.1 算法框架 |
4.3.2 基于模糊逻辑和全局显着性测量的细节融合 |
4.3.3 基于局部显着性测量的边缘融合 |
4.4 实验结果分析 |
4.4.1 参数设置 |
4.4.2 性能分析 |
4.4.3 降尺度实验 |
4.4.4 全尺度实验 |
4.5 本章小结 |
第5章 基于条件随机场模型的融合方法 |
5.1 引言 |
5.2 基本的条件随机场模型 |
5.3 基于条件随机场的融合方法 |
5.3.1 RHU假设的建模 |
5.3.2 RHP假设的建模 |
5.3.3 基于CRFs的融合模型 |
5.3.4 模型求解 |
5.3.5 算法总结 |
5.4 实验结果分析 |
5.4.1 实验设置 |
5.4.2 参数设置 |
5.4.3 迭代结果 |
5.4.4 消融实验 |
5.4.5 收敛性分析 |
5.4.6 降尺度实验 |
5.4.7 全尺度实验 |
5.4.8 效率分析 |
5.5 本章小结 |
第6章 基于联合引导细节提取的融合方法 |
6.1 引言 |
6.2 联合引导细节提取的融合方法 |
6.2.1 变分模型 |
6.2.2 回归模型 |
6.2.3 注入模型 |
6.3 实验与讨论 |
6.3.1 实验设置 |
6.3.2 参数设置 |
6.3.3 降尺度实验 |
6.3.4 全尺度实验 |
6.3.5 效率分析 |
6.3.6 讨论 |
6.4 本章小结 |
第7章 总结与展望 |
7.1 论文总结 |
7.2 研究展望 |
参考文献 |
攻读博士学位期间取得的研究成果 |
致谢 |
(6)基于视觉感知的多曝光融合图像客观质量评价研究(论文提纲范文)
摘要 |
abstract |
第1章 概述 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 自然图像质量评价 |
1.2.2 多曝光融合图像质量评价 |
1.3 研究内容 |
1.4 论文结构 |
第2章 基于超像素分割的多曝光融合图像客观质量评价模型 |
2.1 引言 |
2.2 客观质量评价模型构建 |
2.2.1 基于超像素分割的区域划分 |
2.2.2 信息量较大区域的质量计算 |
2.2.3 信息量较小区域的质量计算 |
2.2.4 自适应加权策略 |
2.3 实验结果与分析 |
2.3.1 实验设置 |
2.3.2 性能对比 |
2.3.3 消融实验 |
2.4 小结 |
第3章 基于卷积神经网络的多曝光融合图像客观质量评价模型 |
3.1 引言 |
3.2 无参考评价模型构建 |
3.2.1 网络结构 |
3.2.2 损失函数与优化方法 |
3.3 实验结果与分析 |
3.3.1 数据库及评价指标 |
3.3.2 性能对比 |
3.3.3 消融实验 |
3.3.4 应用 |
3.4 小结 |
第4章 总结与展望 |
4.1 总结 |
4.2 展望 |
参考文献 |
在学研究成果 |
致谢 |
(7)基于分离表示学习的图像融合方法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题的背景和研究意义 |
1.2 国内外研究现状 |
1.3 本文的研究内容及创新点 |
1.4 论文结构安排 |
第二章 相关工作 |
2.1 深度学习 |
2.2 卷积自编码 |
2.3 残差学习 |
2.4 对比学习 |
2.5 图像融合数据集 |
2.6 图像融合算法 |
2.7 融合质量评价 |
2.7.1 主观评价 |
2.7.2 客观评价 |
2.8 本章小结 |
第三章 基于特征残差学习的红外与可见光图像融合算法 |
3.1 网络的特征分离模型和融合模型 |
3.1.1 特征提取模型 |
3.1.2 特征融合模型 |
3.1.3 损失函数 |
3.2 实验结果与分析 |
3.2.1 实验设置 |
3.2.2 主观评价 |
3.2.3 客观评价 |
3.3 本章小结 |
第四章 基于联合自编码的红外与可见光图像融合算法 |
4.1 联合自编码网络 |
4.1.1 网络模型 |
4.1.2 融合规则设计 |
4.1.3 损失函数 |
4.2 实验分析 |
4.2.1 超参数分析 |
4.2.2 融合层特征的可视化 |
4.2.3 融合图像的主观效果 |
4.2.4 融合图像的客观质量评价 |
4.3 本章小结 |
第五章 基于特征分离表示的图像融合通用算法 |
5.1 网络模型 |
5.1.1 模型框架 |
5.1.2 融合规则设计 |
5.1.3 损失函数 |
5.2 实验结果 |
5.2.1 特征约束的消融实验 |
5.2.2 对比实验设置 |
5.2.3 多聚焦图像的融合结果 |
5.2.4 红外与可见光图像的融合结果 |
5.2.5 医学图像的融合结果 |
5.2.6 融合结果分析 |
5.3 本章小结 |
第六章 基于自适应特征融合的红外与可见光图像融合算法 |
6.1 网络模型 |
6.1.1 端到端模型 |
6.1.2 损失函数 |
6.2 实验结果与分析 |
6.2.1 超参数分析 |
6.2.2 融合图像的主观效果 |
6.2.3 算法的客观评价 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 本文的工作总结 |
7.2 对未来研究的展望 |
致谢 |
参考文献 |
附录:作者在攻读硕士学位期间发表的论文 |
(8)基于图像融合的螺纹视觉测量技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究背景与意义 |
1.1.1 课题研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状及发展趋势 |
1.2.1 螺纹接触式测量技术现状 |
1.2.2 非接触螺纹测量研究现状 |
1.3 图像融合研究现状与发展趋势 |
1.3.1 像素级融合介绍 |
1.3.2 特征级融合介绍 |
1.3.3 决策级融合 |
1.4 图像质量评价研究现状与趋势 |
1.5 本论文的研究内容 |
第2章 螺纹图像配准及原理 |
2.1 螺纹测量牙廓失真原因分析 |
2.2 图像预处理 |
2.3 图像配准 |
2.3.1 配准技术 |
2.3.2 图像配准技术原理 |
2.4 图像配准流程 |
2.5 螺纹图像的预处理及配准 |
2.5.1 螺纹图像成像特点 |
2.5.2 螺纹图像预处理 |
2.5.3 螺纹图像配准 |
2.6 本章小结 |
第3章 螺纹图像融合 |
3.1 图像融合算法原理 |
3.1.1 加权图像融合算法 |
3.1.2 基于PCA融合算法 |
3.1.3 拉普拉斯金字塔变换图像融合算法 |
3.2 多尺度螺纹图像融合实现 |
3.2.1 螺纹图像提取 |
3.2.2 螺纹图像融合过程 |
3.3 本章小结 |
第4章 螺纹图像评价方法 |
4.1 图像评价方法 |
4.2 基于梯度的评价方法 |
4.3 螺纹图像评价方法 |
4.3.1 螺纹图像评价方法 |
4.3.2 螺纹图像信息熵评价 |
4.3.3 螺纹图像的对比度评价 |
4.4 螺纹边缘清晰度评价的方法 |
4.4.1 螺纹边缘特征像素的评价 |
4.4.2 螺纹评价指标的确定 |
4.5 本章小结 |
第5章 螺纹融合图像实验及分析 |
5.1 实验设备 |
5.2 图像法牙型角提取流程 |
5.3 螺纹图像边缘亚像素提取 |
5.3.1 亚像素边缘定位原理 |
5.3.2 螺纹二维图像边缘定位 |
5.4 实验结果与分析 |
5.5 本章小结 |
总结与展望 |
参考文献 |
攻读硕士学位期间取得的科研成果 |
致谢 |
(9)基于双尺度分解的多模态医学图像融合算法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 选题背景及研究意义 |
1.2 国内外研究现状 |
1.3 本文研究内容与结构安排 |
第2章 基于加权局部能量匹配度和改进SF的多模态医学图像融合 |
2.1 引言 |
2.2 相关理论介绍 |
2.2.1 潜在低秩表示 |
2.2.2 空间频率 |
2.3 提出的图像融合方法 |
2.3.1 训练分解矩阵L |
2.3.2 分解源图像 |
2.3.3 基础部分融合 |
2.3.4 显着部分融合 |
2.3.5 最终融合步骤 |
2.3.6 彩色医学图像融合 |
2.4 实验结果及性能分析 |
2.4.1 对比方法与评价指标 |
2.4.2 关键实验参数分析 |
2.4.3 灰度医学图像的实验分析 |
2.4.4 彩色医学图像的实验分析 |
2.4.5 剥离实验 |
2.4.6 计算效率分析 |
2.5 本章小结 |
第3章 基于边缘检测和视觉显着性映射的多模态医学图像超分辨融合 |
3.1 引言 |
3.2 提出的多模态医学图像超分辨融合方法 |
3.2.0 基于双三次插值的图像超分辨率 |
3.2.1 双尺度图像分解 |
3.2.2 基础层图像融合 |
3.2.3 细节层图像融合 |
3.2.4 图像重构 |
3.3 实验结果与分析 |
3.3.1 比较的算法和评价指标 |
3.3.2 剥离实验 |
3.3.3 灰度医学图像融合实验结果分析 |
3.3.4 彩色医学图像融合实验结果分析 |
3.3.5 医学图像超分辨融合实验结果分析 |
3.3.6 计算效率分析 |
3.4 本章小结 |
第4章 总结与展望 |
4.1 论文工作总结 |
4.2 研究展望 |
参考文献 |
攻读硕士研究生期间科研成果 |
致谢 |
(10)质量驱动的自适应图像融合算法研究(论文提纲范文)
摘要 |
abstract |
缩略词表 |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究历史与现状 |
1.3 本文的研究内容及创新点 |
1.4 本文的结构安排 |
第二章 图像融合基本理论 |
2.1 图像融合应用分类 |
2.1.1 可见光和红外图像 |
2.1.2 多聚焦图像 |
2.1.3 遥感图像 |
2.1.4 医学图像 |
2.2 图像融合方法介绍 |
2.2.1 传统像素级图像融合算法 |
2.2.2 基于深度学习的图像融合算法 |
2.3 图像融合质量评价 |
2.3.1 图像融合主观质量评估 |
2.3.2 图像融合客观质量评估 |
2.4 本章小结 |
第三章 基于多层生成对抗网络的图像融合算法 |
3.1 引言 |
3.2 基于生成对抗网络的图像融合方法 |
3.2.1 生成对抗网络 |
3.2.2 基于生成对抗网络的图像融合方法 |
3.3 基于改进的生成对抗网络的图像融合方法 |
3.3.1 感受野 |
3.3.2 多层生成对抗网络结构 |
3.3.3 改进的网络框架 |
3.4 实验结果及分析 |
3.4.1 主观视觉效果 |
3.4.2 客观质量指标 |
3.5 本章小结 |
第四章 质量驱动的自适应图像融合方法 |
4.1 引言 |
4.2 迁移学习 |
4.3 质量驱动的自适应图像融合方法 |
4.3.1 可迁移性分析 |
4.3.2 质量评价指标 |
4.3.3 迁移学习方法 |
4.4 实验结果分析 |
4.4.1 迁移学习实验对比 |
4.4.2 与经典图像融合算法对比 |
4.5 本章小结 |
第五章 全文总结与展望 |
5.1 全文总结 |
5.2 后续工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
四、图像融合质量评价方法的研究(论文参考文献)
- [1]基于深度学习的低分辨率图像融合算法研究[D]. 李帅军. 西安理工大学, 2021(01)
- [2]基于多元特征的立体图像质量评价的研究[D]. 史玉华. 南京信息工程大学, 2021(01)
- [3]各向异性导向滤波的红外与可见光图像融合[D]. 刘明葳. 中国人民公安大学, 2021(08)
- [4]像素级红外与可见光图像融合方法研究[D]. 李静. 中国人民公安大学, 2021(01)
- [5]基于空间-光谱信息保持的遥感图像融合方法研究[D]. 卢航远. 江西财经大学, 2021(09)
- [6]基于视觉感知的多曝光融合图像客观质量评价研究[D]. 曾妍. 江西财经大学, 2021(09)
- [7]基于分离表示学习的图像融合方法研究[D]. 高元浩. 江南大学, 2021(01)
- [8]基于图像融合的螺纹视觉测量技术研究[D]. 汪杰. 陕西理工大学, 2021(08)
- [9]基于双尺度分解的多模态医学图像融合算法研究[D]. 曹四华. 江西财经大学, 2021(09)
- [10]质量驱动的自适应图像融合算法研究[D]. 桑伟汉. 电子科技大学, 2021(01)