一、雷达视频-时基压缩系统的一种简单实现及性能分析(论文文献综述)
代清[1](2021)在《大规模场景下海量视频的拼接与动态调度方法》文中进行了进一步梳理随着现代数字化技术在安防领域应用的不断深入,三维地理信息系统与视频监控系统的集成成为当前热门研究方向。将视频图像融合到三维地理系统中,不仅可以定位视频地理位置,而且解决了视频分散独立、庞杂散乱、不直观的问题,可以对大场景进行空间动态全局管理。同时,视频监控在三维地理信息系统中加入了时间维度,将动态的真实世界的信息集成到静态的虚拟三维场景中。二者优势互补,可实现对三维空间的动态全局时空分析。然而当前大部分研究方法很少考虑视频的三维空间信息,导致三维视频融合效果较差。另外,目前大多数三维视频加载方法因空间裁剪等算法效率低,导致加载视频数量受限,无法承担大规模场景下视频监控动态管理的需求。针对多视频数量受限及拼接融合效果不佳的研究现状,本文围绕多路视频加载、视频与场景三维模型的融合方法展开,提出一种在GIS(Geographic Information System,地理信息系统)场景下基于八叉树索引和像素模式LOD(Levels of Detail,多细节层次)的海量视频调度方法,通过二维监控视频图像与三维模型的拼接融合,实现对大场景的全局管理,达到三维视频融合的效果。研究内容主要包含以下方面:(1)研究三维场景中多路视频的加载与调度方法。针对当前多视频数量受限的问题,提出基于八叉树索引和像素模式LOD的海量视频动态调度方法,实现在大规模三维场景下加载调度海量视频。为进一步提升渲染速度,利用文件映射存储海量视频节点。此外通过像素模式LOD模型对摄像机视锥体进行剔除,减少渲染数据量,以更好地提升视频流畅度。在实验阶段,本文方法实现70路视频的加载。(2)研究视频拼接与三维融合方法。针对当前拼接融合效果不佳的问题,提出利用摄像机内外部参数映射、监控摄像头姿态信息、摄像头实时监控视频流的解码与可视化,改进视频与三维场景的融合效果。在实验阶段,将本文融合方法与直接投影的方法进行比较,结果表明该方法在融合绘制效果和性能上更优。
李子桐[2](2020)在《取样示波器精密时基模块技术研究》文中进行了进一步梳理取样示波器采用等效时间采样技术,可使用较低的实时采样率对高频周期重复信号进行不失真的采样,被广泛应用于微波信号、超带宽脉冲信号、以及雷达信号的波形测试中,相对于实时采样示波器具有更高的输入带宽和等效采样率,测试成本相对更低。精密时基模块属于取样示波器同步触发信号输入前端,通过对高速外同步触发信号的频率相位调谐,产生低频高精度步进延时取样脉冲信号,作为本振信号控制取样器对高频被测信号进行取样,是实现高等效采样率的关键模块。本文根据顺序等效采样理论设计取样示波器精密时基模块,支持2.5GHz同步触发信号输入,可根据时基档位和采样点数灵活调整延时精度和延时范围,研究内容主要从下几个方面进行阐述展开:1、对取样示波器随机等效采样和顺序等效采样的实现方法及原理进行研究,针对现有实现精密时基功能的方法进行可行性分析,面对传统方法的不足,结合课题的研究目标,提出一种新型的步进延时脉冲产生方法“步进移相延时法”,为精密时基模块的设计奠定了理论基础。2、设计了以“FPGA+DDS”为核心架构的精密时基硬件电路,根据指标要求对电路中关键高速器件进行选型,完成了输入信号调理电路、DDS芯片及外围电路、时钟信号处理电路、信号同步电路、FPGA以及串口通信电路和电源电路的硬件电路设计。3、采用FPGA作为核心控制芯片进行精密时基模块的软件设计,使用等精度测频方法实现对外触发信号的频率测量,并完成延时时间与移相偏移字参数的转换计算;采用DDS芯片AD9914实现高精度步进移相时钟产生,通过配置其Profile模式以及可编程模数模式,产生频率相位可调的精确时钟信号。通过设计步进相位偏移字累加程序,使用SPI通信协议对AD9914的寄存器进行配置,完成高精度步进移相时钟信号的产生,并输入信号同步电路实现40KHz的步进延时脉冲信号输出。4、对设计完成的取样示波器精密时基模块各功能进行验证,使用Modelsim软件对AD9914的多寄存器驱动程序执行仿真验证,对DDS输出时钟信号频谱进行测试分析,使用示波器对AD9914的步进移相时钟的产生进行测试验证,以及对信号同步电路输出的步进延时脉冲进行时域测试,完成了精密时基模块的基本功能,可最高输出低于10ps分辨率的步进延时脉冲,延时范围2ns200ns,实现100GSPS的等效采样率。
赵敏达[3](2020)在《基于时空优化的视频去抖算法研究》文中指出近些年来,随着智能设备的普及和发展,使用便携式相机拍摄各种视频已经成为人们日常生活中不可或缺的一部分。这些拍摄的视频除了记录日常生活,也有一些被用于执行一些复杂任务,如目标跟踪、物体识别等。但是由于条件或者使用场景的限制,这些相机往往缺乏配套的稳像设备,因而造成拍摄的视频中常伴随剧烈的抖动。这种抖动不仅会造成视频质量的下降和观看者的不适,也会影响基于这些视频执行其他后续任务,因此对抖动视频进行去抖具有十分重要的意义。同时这也是目前一个非常热门的研究方向。目前,针对一般场景的视频去抖问题已经有了一些较好的解决方法,但是这些现有算法在处理包含复杂场景的视频时常常会出现去抖性能的下降甚至失效的情况。这些复杂场景包括大前景运动物体、强视差和多动态前景遮挡造成的不连续景深变化等。本文针对上述挑战进行了深入的研究分析,并分别提出了具有针对性的算法。这些算法通过建立包含时间约束项和空间约束项的优化函数(即时空优化函数)进行视频稳定视角下的位置估计。归纳起来,本文的主要工作和研究成果有如下三点:1)提出了一种结合前景背景特征轨迹的视频去抖算法。本算法主要解决包含大前景和强视差场景视频的去抖问题。最典型的此类视频就是交通视频,交通视频是指由固定在车辆上的相机拍摄的道路视频,其中经常出现车辆等大前景物体和强视差的情况。不同于大多数现有算法仅使用背景特征轨迹进行相机运动估计和平滑,本算法不再区分前景特征轨迹和背景特征轨迹,并利用全部的特征轨迹对相机运动进行估计。本算法通过求解一个设计的优化问题消除摄像机运动的高频分量,即摄像机抖动,来稳定视频。由于我们的方法同时利用了前景和背景特征轨迹,因此其性能优于仅使用背景特征轨迹的去抖方法,尤其是在前景物体较大且提取的背景特征轨迹数量较少的情况下。此外,本文提出了一些改进策略以加快所提出的优化问题的求解并增强算法的鲁棒性。2)提出了一种基于内容感知分块策略的视频去抖算法。现有的去抖算法通常使用全局或者基于固定分块的运动估计和平滑,并进行抖动帧到稳定帧的映射。但是这些方法无法在复杂的场景(例如包含大前景对象或强视差的场景)中准确地实现抖动估计和平滑。为了解决上述问题,本文提出了一种基于视频内容和自适应分块策略的去抖算法。该算法根据抖动视频中特征轨迹在每帧内的分布将视频帧划分为不同数量和不同大小的三角形网格,然后利用这些三角形网格设计优化函数实现帧间运动的估计和平滑处理。为了进一步地提升算法鲁棒性,我们提出了两种自适应权重设置策略以改善其空间和时间自适应性。3)提出了一种基于像素级映射估计的视频去抖算法。由于基于传统计算机视觉技术的视频去抖算法在处理复杂场景(如前景遮挡和视差变化)时存在误差,且难以处理低质量视频,如光线暗、模糊、噪声、水印视频等,本文提出了一种基于深度学习的像素级映射估计的去抖算法。该去抖网络将连续的抖动视频帧序列作为输入,对其中存在的抖动进行估计和平滑,网络的输出是与视频帧相同大小的变换图,最后利用该变换图将抖动帧映射到稳定位置。本方法提出了一种新型损失函数,实现了网络的有效训练;设计了一种多层级联的结构,使得更深层级可以学习到相对浅层级的残差、显着提升了去抖效果。与现有方法比较,本算法是第一个通过像素级估计进行视频去抖的深度学习算法,具有更快的处理速度,能够更准确地处理复杂场景的视频去抖问题。
何昊[4](2020)在《雷达目标模拟器快速测频模块设计》文中研究表明雷达目标模拟器作为一种典型的雷达测试仪器,对于验证雷达的目标分辨能力、多目标实时处理等功能具有重要作用,并能够缩短雷达研发周期,节省研制成本。随着电子技术的发展,雷达目标信号从固定的载频脉冲信号发展为具有宽带、捷变频等特性的多种制式信号,为了适应这种发展趋势,需要配置频率引导单元,即测频模块来对雷达载频进行快速精确测量,并根据测频信息配置捷变频单元使其输出频率与雷达工作频率相对应,实现目标快速锁定和跟踪功能。本论文在实现雷达目标模拟信号载波频率快速高精度测量基础上,增加了捷变本振单元,实现“测频+频率计算+频率合成”全功能覆盖,同时将捷变本振输出信号作为二次下变频的参考信号,与中频信号进行混频得到基带信号,从而降低对后级模数转换器的性能要求。本论文的主要研究内容包括:比较了基于宽带采样和直接频率分频测量两种方法的优缺点,分析了对于不同载波(连续波、脉冲波等)频率的测量方法;讨论了频率合成的几种主流方法并分析其对捷变频时间的影响,结合课题实际要求,确定了基于TDC+FPGA+DDS的硬件实现方案。针对测频单元和捷变频单元的关键指标对硬件进行选型,给出了RF信号增益自动控制单元、多级分频器单元、TDC测量单元、DDS+PLL捷变频等电路的详细硬件设计方案,并设计了相应的电源转换电路。研究了DDS与PLL混频后产生的谐波和杂散对输出信号的影响,使用Genesys等仿真软件进行仿真验证,设计了频率合成方案;研究了在FPGA内部完成测频数据接收处理和频率控制字合成等功能的实现方案,基于ISE14.7平台进行FPGA软件开发,完成了对TDC、DDS、PLL等硬件的逻辑设计。根据设计方案实现了测频模块硬件实物制作和调试,使用示波器、频谱仪、信号发生器等仪器对硬件电路进行实际功能测试,验证其在测频精度、频率转换时间等关键指标是否满足设计要求。通过实际测试结果表明,对于输入频率在100MHz-2GHz,动态范围40dB的输入信号能够实现误差小于1MHz的频率快速测量,并实现了1.2μs以内的频率捷变功能。通过本次设计为后续进行宽带雷达目标模拟器研制打下坚实基础。
徐梦溪[5](2020)在《基于先验约束的超分辨率图像复原方法研究》文中认为在图像和视频采集及传输过程中,诸如成像条件、自然场景变化、成像设备的时间、空间分辨率等因素的限制,成像及视频采集系统难以无失真地获取自然场景中的信息。尽管成像及视频采集设备飞速发展和硬件性能的提高,但在卫星遥感及航空摄影测量、工业成像监测、刑侦分析、医疗图像分析、公共安全视频监控、视频娱乐系统与多媒体通信等应用领域,高质量、高时空分辨率图像的获取与传输仍受到许多因素的限制。一种有效提高图像(或序列图像、视频)时、空分辨率的途径是在不改变原有系统硬件的前提下,采用基于软件的方式(即信号与信息处理算法的方式)。这种基于软件方式的超分辨率图像复原(super resolution image restoration,SRIR)方法和技术是指融合来自同一场景的(多帧)低分辨率图像(或视频序列)的信息,恢复和重构出高空间分辨率图像或高时-空分辨率视频序列。对于静态图像SRIR而言,是对同一场景的单幅(单帧)或多帧低分辨率图像实现高分辨率图像的恢复和重构;对于视频序列SRIR而言,是对相同动态场景的低分辨率视频序列实现包括高时间分辨率和高空间分辨率视频序列的恢复和重构。本论文是以最大后验概率(MAP)估计求解法和范数求极值的变分法为研究主线,结合先验建模作为解空间约束,分别针对多帧图像、单幅(单帧)图像和视频序列,研究MAP法估计求解框架下基于先验(正则化)约束的改进方法、自适应稀疏表示结合正则化约束的方法、及基于像素流和时间特征先验的视频超分辨率复原方法。针对性地聚焦研究三方面内容:(1)多帧低质图像的最大后验概率MAP估计求解框架下正则化SRIR改进研究;(2)基于稀疏字典学习的单幅图像SRIR改进研究;(3)基于像素流和时间特征先验建模的视频SRIR研究。主要研究工作包括:(1)针对多帧图像的SRIR,提出了一种基于邻域像素扩展的广义全变分正则化超分辨率图像复原方法。该方法是在最大后验概率(MAP)框架下,针对全变分、双边全变分、广义全变分等正则化算法存在的不足提出的。通过从度量相邻像素间几何距离的相关性扩展到邻域像素间几何距离和灰度的双重相关性,设计不同于1-范数形式的代价函数,以提高相关性度量的准确性;引入优化-最小化(MM)迭代寻优以改善目前采用共轭梯度(conjugate gradient,CG)寻优的不足。通过多组对比试验分析表明,所提方法具有较好的抑制噪声和保持边缘细节的能力,鲁棒性更强。(2)针对多帧图像的SRIR,提出了一种基于改进保真项与自适应双边全变分的正则化超分辨率图像复原方法。同样,在MAP框架下,现有的SRIR算法大多采用L1、L2、Huber或Gaussian误差范数来构建保真项,存在着对异常值数据较为敏感、算法的鲁棒性受限等问题。为此,通过采用Tukey范数构建保真项解决重尾效应,以适用处理复杂变化的噪声;建立自适应权值矩阵,有助图像细节信息进一步增强。通过多组仿真实验,验证了所提方法的有效性与鲁棒性。(3)针对单幅(单帧)图像的SRIR,提出了基于自适应稀疏表示结合正则化约束的超分辨图像复原方法。基于稀疏字典学习的SRIR方法,在构建全局过完备字典、对不同结构图像块的稀疏表示约束等方面存在一定的局限,本文从提升稀疏表示准确性、编码效率以及保持图像细节信息等入手,结合图像的稀疏表示和范数函数求极值的变分方法,采用基于自适应稀疏表示结合正则化约束的策略,对传统的基于稀疏字典学习的SRIR方法进行改进,并利用绝对差值的总和(SAD)度量图像块像素结构相似性,以减少计算量和提高计算效率。实验结果表明,所提算法在复原图像视觉效果、边缘细节的保持、噪声抑制、计算效率等方面均具有一定的优势。(4)针对视频序列的SRIR,提出了基于像素流和时间特征先验的视频超分辨率复原方法。考虑到目前的视频SRIR方法,大多在空间解模糊与消除运动模糊及提高插值帧保真度等方面存在局限,为有效提高帧速率和减少(或消除)视频中的运动模糊,在MAP框架下,采用了基于逐像素流的时-空超分辨率复原与基于特征驱动的像素流时间先验策略,提出了一种单视频时-空超分辨率复原算法。通过单一灰度视频和单一彩色视频的多组不同实验,验证了所提算法的有效性。
赵成璐[6](2020)在《基于DSP的可组网LFMCW雷达信号处理算法研究与硬件设计》文中认为毫米波雷达在周界安防和民用领域的应用已经逐渐占据重要地位,在保证较高的雷达性能的同时,降低雷达系统的研制成本成为了需要关注的重点。通过雷达组网技术能够实现对单部雷达性能不足的弥补并扩大系统探测范围,在提高系统性能的同时降低成本。基于可组网、低成本的设计理念,并结合线性调频连续波雷达结构简单、不存在距离盲区的特点,本文以TI TMS320F28379D DSP作为系统控制与信号处理核心,设计了可组网锯齿波LFMCW(Linear Frequency Modulated Continuous Wave,线性调频连续波)周界雷达系统方案,完成了单部雷达的硬件平台设计与软件实现,研制了低成本低功耗的雷达系统硬件。本文对锯齿LFMCW雷达系统的设计分为以下四个部分。第一部分,对组网技术和LFMCW雷达的原理进行介绍,为系统设计提供理论基础。通过建立回波差频信号数学模型,分析了测速测距原理并推导相关公式,解释了使用距离和速度维FFT算法解决调频连续波雷达距离—速度耦合现象的可行性。针对干扰环境下雷达探测性能降低的问题,采用动目标显示与检测、恒虚警检测技术,实现了对运动目标距离和速度的提取,并进行MATLAB仿真与验证。第二部分,根据实际需求设计了雷达系统硬件方案。围绕TMS320F28379D进行各功能模块设计,包括电源系统、存储模块、时钟模块、模拟波形调理模块、通信模块等的芯片选型与原理图绘制,并对PCB的设计与实现提出了要求。第三部分,给出了系统控制与信号处理软件实现的流程与方案,包括发射波形的控制、回波信号的采集、信号处理算法以及与上位机的通信。第四部分,进行硬件系统调试与外场测试。首先给出了电源模块、时钟系统、存储模块的功能调试结果,确保硬件电路设计的正确性。通过上位机、雷达前端与信号处理板的联合调试,对波形控制、数据采集、通信模块进行测试,实现上位机与雷达系统的通信,DSP对发射波形参数的控制,四路回波差频信号的同步采集和数据存储功能,并由外场实验对雷达性能进行了测试。本文在线性调频连续波雷达信号处理方法的理论研究基础上,结合实际需求研制了以DSP为核心的可组网锯齿波LFMCW周界雷达硬件系统,并对系统的各功能模块进行了调试,硬件平台的设计达到低成本、低功耗的要求,为后续实现雷达组网系统提供了基础。
周玉[7](2019)在《面向虚拟视角合成的客观质量评价方法研究》文中进行了进一步梳理近年来,虚拟现实、多视角和自由视角视频等三维(Three Dimensions,3D)相关技术凭借在远程教育、医疗和娱乐等众多领域的广泛应用而引起人们的密切关注。虚拟视角合成技术是实现这些应用的关键,而视觉质量直接决定该技术能否成功应用。因此,研究面向虚拟视角合成的质量评价具有重要意义。本论文在对国内外研究现状进行深入分析的基础上,对该方向中存在的关键性问题进行研究,具体包括:基于深度图的视角绘制(Depth-Image-Based Rendering,DIBR)过程引入失真影响下的合成图像质量评价、整个虚拟视角合成过程引入失真影响下的合成图像质量评价和虚拟视角合成视频质量评价,并提出相应的解决方案。本文的研究成果能够用于指导虚拟视角合成算法的设计以及多视角纹理和深度的编码,具有重要的理论研究意义和实际应用价值。本文的主要工作及贡献如下:(1)探究DIBR绘制过程引入的失真对合成图像质量影响的特性,提出一种基于局部几何失真和全局清晰度评价的DIBR合成图像质量评价方法。DIBR是虚拟视角合成中的一项关键技术,其局限性主要在合成图像中引入局部几何失真,但也包含一定的全局失真。所以,需要从局部和全局两方面进行评价。而现有的DIBR合成图像质量评价方法主要从局部/全局某一单方面进行评价,且无法准确定位图像中的局部失真区域,从而造成其性能受限。基于以上分析,本文提出一种基于局部和全局评价的方法。对于局部失真,我们提出了一种基于尺度不变特征变换(Scale-Invariant Feature Transform,SIFT)流的局部失真区域定位方法和失真量化方法。对于全局失真,考虑到视角绘制受模糊的影响,我们提出了一种基于人为再次模糊的全局清晰度评价方法。最后,将局部和全局分数结合生成最终的图像质量分数。在多个视角合成数据库中进行的大量实验证明了该算法相比现有质量评价方法的性能优越性。另外,实验也证明了该算法在DIBR算法的性能排序应用中同样具有最佳表现。(2)进一步探索人类视觉系统(Human Visual System,HVS)在感知图像时的特性,提出一种基于实例降质和全局失真评价的DIBR合成图像质量评价方法。上一个工作使用低层次特征描述DIBR合成图像中的局部失真。然而,HVS更倾向于从图像中的显着性物体(实例)这一更高层次特征来判断图像质量,且DIBR合成图像中的局部失真造成了实例质量的下降。基于此,我们通过量化实例降质来更好地描述图像中的局部失真。另外,对于全局失真评价,我们在结合HVS特性的基础上,同时评价了模糊失真和几何形变,这也是现有方法中欠缺考虑的问题。最后,将局部实例质量分数和全局质量分数结合,生成最终的合成图像质量分数。在视角合成数据库中的大量实验证明了该算法的性能优越性及该算法能够应用于DIBR算法的性能评估。(3)探寻整个虚拟视角合成过程中各阶段失真对合成图像质量的影响机理,提出一种通用全参考型视角合成图像质量评价方法。现有的视角合成图像质量评价方法,包括本文的前两个工作,均是针对视角合成过程中单一阶段失真进行评价。而实际应用中,视角合成过程的各阶段均可能引入失真,且各阶段失真对最终合成图像质量的影响特性大不相同。所以,研究针对整个视角合成过程的通用型质量评价方法具有重要意义。基于此,本文通过深入研究各阶段失真对质量的影响,发现它们均会破坏低级和中级结构。所以,本文提出基于低级和中级结构降质的通用型视角合成图像质量评价方法。其中,低级结构通过梯度强度和方向统计共同描述,中级结构通过稀疏编码描述。在虚拟视角合成图像数据库中的大量对比实验证明了该算法在评价整个视角合成过程中的有效性。(4)进一步探求整个虚拟视角合成过程中各阶段失真对合成图像自然场景统计特性的影响,提出一种通用无参考型视角合成图像质量评价方法。工作(3)中提出的算法为通用全参考型。而实际应用中虚拟合成视角图的原始图往往难以获得,所以全参考型方法具有较大局限性。相比之下,无参考型方法具有更大的研究价值。受基于自然场景统计的通用无参考型质量评价方法的启发,本文通过深入研究虚拟视角合成中各阶段失真对合成视角图统计特性影响的共性,发现失真会破坏边缘统计及纹理自然性。因此,本文提出一种基于边缘统计和纹理自然性的评价方法。另外,考虑到高斯差值图具有模拟人类视觉系统特性、对失真敏感且能够有效表达图像边缘和纹理信息的特点,我们提出在该图上提取边缘统计和纹理自然性特征。实验结果表明在评价各阶段失真时,该算法均比传统质量评价方法和现有视角合成图像质量评价方法具有更好的性能和更好的可扩展性。(5)探讨虚拟视角合成视频中的时域失真特性,提出一种针对合成视频的无参考型质量评价方法。在实际应用中,多视角和自由视角等应用多以视频形式出现,所以针对虚拟视角合成视频的质量评价研究具有广阔的应用前景。针对空域失真设计的图像质量评价方法以及针对传统失真设计的视频质量评价方法均无法有效评价视角合成视频的质量,原因在于视角合成视频中的失真主要为局部的时域闪烁失真。基于此,本文提出一种闪烁区域定位方法,并设计了奇异值域的闪烁失真量化方法。在两个视角合成视频数据库中的实验分别证明了本文提出的闪烁区域定位方法的准确性、该算法相比现有质量评价算法的性能优越性以及应用于视角合成算法性能排序时能够和主观结果保持最高的一致性。该论文有图36幅,表44个,参考文献208篇。
易天柱[8](2019)在《合成孔径雷达高分辨率成像技术研究》文中认为高分辨率成像是合成孔径雷达(Synthetic Aperture Radar,SAR)系统研制与应用的关键环节。SAR系统的高分辨率探测感知特点,有效提升了SAR在焦点区域信息获取和态势感知能力,使其成为军用和民用遥感领域重要的获取信息手段。与高分辨率SAR相适应的高精度高效成像算法、运动误差补偿算法、宽幅连续测绘体制设计等仍面临诸多问题与挑战。本文立足于SAR高分辨率应用需求,对高分辨率SAR的信号处理技术和系统参数设计分析展开研究,主要内容与创新点如下:第二章对高分辨率SAR成像算法展开探讨和研究。SAR高空间分辨体制通常由系统的距离向大带宽和方位向的大扫描角来实现,本文分析了方位基带变标算法(Baseband Azimuth Scaling,BAS)无法对滑动聚束大带宽SAR子孔径的距离-方位高阶相位解耦合的成因,并结合通用的调频变标算法(Generalized Chirp Scaling,GCS)提出了适用于滑动聚束大带宽SAR的GCS-BAS成像算法;视频SAR(Video SAR,ViSAR)通常工作于连续大扫描角模式下,部分孔径工作于大斜视模式下,本文在分析传统非线性调频变标(Nonlinear Chirp Scaling,NLCS)算法采用驻定相位法(Principle of Stationary Phase,POSP)求解驻相点而导致模型精度不足的问题基础上,利用级数反演法(Method of Series Reverse,MSR)改进传统NLCS算法,提高了算法的聚焦精度和场景聚焦深度。本章的成像算法可为后续各章提供支撑。第三章对基于运动测量数据和回波数据的高分辨率SAR运动误差补偿算法进行研究。传统的两步法只针对波束中心视线方向的包络和相位误差进行补偿校正,并未考虑平台沿航迹方向的非均匀采样误差对SAR聚焦的影响,本文在两步法的基础上,结合航迹向轨迹,利用最佳线性无偏估计(Best Linear Unbiased Estimation,BLUE)法对这一非均匀采样误差进行校正。该算法无模型、场景假设,可与两步法高效结合。由于子孔径图像信噪比会影响相位梯度自聚焦(Phase Gradient Autofocus,PGA)算法的估计精度,基于PGA的传统全孔径相位误差补偿算法在相位历程域划分子孔径的方式难以稳健确定合适的子孔径大小,会使该算法的估计精度和稳健度受限,本文提出的基于图像滑窗PGA的全孔径误差算法通过划分子图像和时频变换的方式,可提高基于回波数据的全孔径误差相位的估计精度和算法稳健性。第四章对ViSAR成像问题展开研究。首先从ViSAR视频帧率定义出发,通过理论推导得到SAR系统视频帧率与系统参数之间的制约关系;其次在快速因式分解后向投影(Fast Factorized Back Projection,FFBP)算法的基础上,研究了ViSAR视频流的快速生成方法;同时从接收机接收信号的信噪比出发,通过理论推导给出了在SAR视频中形成动目标阴影的速度限制条件,这一定量限制条件可为ViSAR系统的参数设计与动目标检测跟踪处理提供依据。第五章对基于Staggered的高分辨率宽测绘带(High Resolution Wide Swath,HRWS)体制和信号处理问题展开研究。从单通道Staggered SAR的性能分析出发,给出了快速变化脉冲重复间隔(Pulse Repetition Interval,PRI)序列设计的一般原则。鉴于方位多通道技术广泛应用于HRWS的工程实践,本文研究并设计一种方位多相位中心(Azimuth Multichannel Phase Center,AMPC)Staggered SAR体制,分析了在AMPC Staggered SAR体制下信号的空间采样特性,并结合这一特性和BLUE算法,提出了一种适合该体制成像处理的改进BLUE算法。数值仿真实验结果和实测数据处理结果验证了以上所提SAR高分辨率成像算法和分析结果的准确性和有效性,为高分辨率SAR系统设计和应用奠定基础。
汪泽伟[9](2019)在《全景视频的渲染技术研究》文中认为随着虚拟现实技术在近些年来的快速发展,全景视频得益于其题材丰富、沉浸感强的特点,成为了虚拟现实技术中最为成熟的一种业务形态,在体育赛事、旅游探险、游戏娱乐等领域得到了越来越广泛的应用。在线流媒体技术的发展也使得人们对于在线观看全景视频的需求越来越强烈。然而,由于全景视频分辨率高、数据量大,故通过网络传输全景视频需要较高的带宽资源,渲染显示等过程也对全景视频播放客户端的处理能力提出了较高要求。因此,全景视频的传输和渲染是影响全景视频观看体验的两个关键因素。本文对这两个环节展开研究。在全景视频的处理过程中,投影映射是十分关键的步骤,投影映射格式的选择会影响到全景视频编解码的性能、传输方式及渲染方式等,因此本文首先从投影映射格式出发,对OMAF标准中确定的两种标准映射格式ERP和CMP的映射过程进行分析,进而提出了渲染这两种投影映射格式的全景视频的方法。然而,ERP格式全景视频在两极地区存在的大量冗余像素容易成为渲染性能瓶颈,CMP格式全景视频在立方体面的交界处存在不连续现象会破坏观看的沉浸感。为了避免以上问题,本文提出一种基于CPP格式特点的网格构造方法,并在此基础上实现一种基于CPP格式的全景视频渲染方法。实验结果表明该方法相较于基于ERP和CMP的渲染方法,在渲染性能和渲染质量上存在一定优势。其次,本文对全景视频的传输技术展开研究。受限于目前的网络带宽条件及客户端解码渲染能力,传输完整的整幅全景视频不仅浪费带宽资源,也会给客户端的处理带来挑战。因而基于用户视域范围的传输是主流的全景视频传输方案。本文中提出了两种基于用户视域范围的传输方案,分别是基于Tile和基于TSP的全景视频传输方案。之后,本文以这两种传输方案为基础,实现了两个在线全景视频渲染系统。在搭建系统过程中,本文研究并实现了码率自适应、带宽预测、视点预测、播放帧率控制、基于TSP格式的全景视频渲染等算法。本文提出用户视域范围内每像素比特率这一指标来衡量用户视域范围内视频的清晰程度,进而分析了所搭建的两个系统及基于ERP的全视角在线全景视频渲染系统中,用户视域范围内的每像素比特率与视角预测准确率之间的关系。本文通过设计主观实验,对不同预测准确率下用户使用三种不同的在线全景视频渲染系统观看全景视频时的主观体验进行了研究。结果表明本文中实现的两个在线全景视频渲染系统在带宽有限条件下能够为用户带来良好体验。
臧坤[10](2019)在《智能电梯视频监测系统的设计与实现》文中指出随着我国城镇化进程的快速推进,轿厢式电梯在人们的生活中扮演着越来越重要的角色。但同时,一个随之而来较为严峻的问题就是电梯安全问题。本课题应江苏省特种设备安全监督检验研究院无锡分院的要求,研究设计一套用于对电梯安全进行监测的智能电梯视频监测系统,本课题侧重于系统的整体搭建工作。首先,本文介绍了课题的研究背景、国内外研究现状以及主要研究内容;接着从功能、数据以及并发三个方面对系统的需求进行分析,根据需求分析设计了智能电梯视频监测系统的总体架构,将系统划分为流媒体视频模块、Web应用模块以及人机交互模块,涉及到电梯轿厢内摄像机、流媒体视频服务器、视频云端存储平台、负载均衡服务器、Web应用服务器、系统中心数据库以及人机交互客户端七大组件。然后,本文详细介绍了智能电梯视频监测系统三大模块的设计方案,并给出了具体实现细节。电梯轿厢内摄像机主要实现视频数据的采集;流媒体视频服务器基于分布式部署实现海量视频数据的存储,基于流媒体技术为用户提供视频数据查看的功能,同时,调用相关的视频检测算法对电梯运行安全进行检测;视频云端存储平台基于阿里云对象存储服务实现特殊电梯视频监测数据的容灾备份;负载均衡服务器基于源地址哈希的算法实现客户端高并发请求的负载均衡;Web应用服务器采用集群化设计,基于SSM框架为客户端提供用户信息管理、设备信息管理、电梯运行异常报警推送等功能;系统中心数据库采用MySQL与Redis结合的方式实现系统非视频数据的存储以及热点信息的缓存;人机交互客户端即浏览器,基于互联网前端技术及ActiveX技术为用户提供人性化的系统操作界面。最后,本文搭建了用于系统测试的环境,从功能和性能两个方面对系统进行全面的测试,结果表明系统能够满足设计的需求。
二、雷达视频-时基压缩系统的一种简单实现及性能分析(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、雷达视频-时基压缩系统的一种简单实现及性能分析(论文提纲范文)
(1)大规模场景下海量视频的拼接与动态调度方法(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 三维视频融合和LOD国内外研究现状 |
1.2.1 三维视频融合的研究现状 |
1.2.2 LOD技术研究现状 |
1.3 主要研究内容 |
1.4 论文结构 |
第二章 海量视频拼接与动态调度的相关理论 |
2.1 OSG渲染流程 |
2.1.1 图形渲染管线 |
2.1.2 图形顶点变换 |
2.1.3 图形光栅化和片段化操作 |
2.1.4 视频影像的三维渲染流程 |
2.2 图像拼接的相关理论 |
2.2.1 图像拼接流程 |
2.2.2 SURF配准算法 |
2.2.3 图像融合技术 |
2.3 本章小结 |
第三章 基于像素模式LOD的海量视频动态调度方法 |
3.1 三维GIS下海量视频动态调度的难点 |
3.2 基于像素模式LOD的多码率视频调度方法原理 |
3.2.1 海量视频节点的八叉树划分与视频文件组织结构 |
3.2.2 视频节点多码率LOD模型的构建 |
3.2.3 基于像素LOD的多码率视频内外存调度渲染方法 |
3.3 基于FFmpeg的多码率H.264视频的生成 |
3.3.1 基于限制码率(CRF)模式的多码率视频的生成 |
3.3.2 基于两遍平均码率(2PASS-ABR)模式的多码率视频生成 |
3.3.3 限制码率(CRF)模式与两遍平均码率(2PASS-ABR)模式的区别 |
3.3.4 三维GIS中视频播放的实现 |
3.4 像素模式LOD的多码率视频调度的实现 |
3.4.1 基于八叉树索引的视频数据的构建 |
3.4.2 各LOD层级的多码率视频的生成 |
3.4.3 基于像素模式的视频节点LOD模型的构建 |
3.5 实验结果与分析 |
3.5.1 计算机参数、环境及实验评价标准 |
3.5.2 ABR、2PASS-ABR与3PASS-ABR编码模式的性能对比 |
3.5.3 2PASS-ABR模式与CRF模式编码的性能对比 |
3.5.4 基于像素模式LOD的多码率视频调度 |
3.6 本章小结 |
第四章 大规模场景下视频拼接融合方法 |
4.1 三维模型与视频的融合原理 |
4.1.1 三维模型建模 |
4.1.2 摄像机标定 |
4.1.3 视频图像的拼接与融合 |
4.2 三维GIS场景下视频拼接融合的实现 |
4.2.1 视频监控摄像头的布局 |
4.2.2 视频静帧图像拼接 |
4.2.3 模型晶格变形 |
4.2.4 RTSP流视频接入 |
4.2.5 基于八叉树索引像素LOD的海量视频监控的调度方法 |
4.3 实验结果与分析 |
4.3.1 视频拼接融合实验 |
4.3.2 大规模场景下海量监控视频融合与调度实验 |
4.3.3 三维GIS平台下视频融合的实现 |
4.4 本章小结 |
第五章 总结与展望 |
参考文献 |
致谢 |
攻读硕士期间发表的论文 |
(2)取样示波器精密时基模块技术研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 选题背景及研究意义 |
1.2 研究现状 |
1.2.1 取样示波器研究现状 |
1.2.2 等效采样技术研究现状 |
1.3 研究目标与主要工作 |
2 取样示波器等效采样系统设计分析 |
2.1 等效时间采样理论 |
2.1.1 随机等效采样 |
2.1.2 顺序等效采样 |
2.2 取样示波器精密时基模块设计理论 |
2.2.1 取样示波器样机结构概述 |
2.2.2 阶梯波比较法 |
2.2.3 可编程延迟线法 |
2.2.4 步进移相延时法 |
2.3 本章小结 |
3 取样示波器精密时基模块的硬件设计 |
3.1 精密时基模块硬件总体方案 |
3.2 输入信号调理电路 |
3.3 相位步进延时电路设计 |
3.3.1 DDS芯片及电路设计 |
3.3.2 时钟信号处理电路 |
3.3.3 信号同步电路 |
3.4 FPGA电路 |
3.4.1 FPGA时钟电路 |
3.4.2 FPGA下载配置电路 |
3.4.3 串口通信电路 |
3.5 电源电路以及PCB设计 |
3.6 本章小结 |
4 取样示波器精密时基模块的软件设计 |
4.1 精密时基模块软件总体结构设计 |
4.2 等精度频率测量 |
4.3 基于DDS的步进移相延时程序 |
4.3.1 频率及相位调谐参数计算 |
4.3.2 DDS可编程模数参数配置 |
4.3.3 步进移相程序 |
4.4 串口和SPI数据传输 |
4.4.1 DDS芯片通信设计 |
4.4.2 分频器配置通信 |
4.4.3 串口通信 |
4.5 本章小结 |
5 精密时基模块测试与分析 |
5.1 串口通信模块验证 |
5.2 AD9914 相位调谐参数计算测试 |
5.2.1 频率测量模块测试 |
5.2.2 DDS相位偏移参数的计算验证 |
5.3 精密时基模块步进延时测试 |
5.3.1 AD9914 通信时序及输出波形测试 |
5.3.2 DDS时钟信号输出频谱测试 |
5.3.3 步进移相时钟信号发生测试 |
5.3.4 基于步进移相延时法的步进延时脉冲发生测试 |
5.4 试验结论及延时误差分析 |
5.5 本章小结 |
6 总结与展望 |
参考文献 |
攻读硕士学位期间发表的论文及取得的研究成果 |
致谢 |
(3)基于时空优化的视频去抖算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景和意义 |
1.2 视频去抖难点分析 |
1.3 国内外研究现状 |
1.4 研究成果和创新点 |
1.5 论文结构安排 |
第2章 视频去抖算法概述 |
2.1 传统视频去抖算法 |
2.1.1 2D算法 |
2.1.2 3D算法 |
2.1.3 2.5D算法 |
2.2 基于深度学习的视频去抖算法 |
2.2.1 相关深度学习算法 |
2.2.2 基于深度学习的视频去抖算法概述 |
2.3 本章小结 |
第3章 结合前景背景特征轨迹的视频去抖算法 |
3.1 结合前景背景特征轨迹的视频去抖算法概述 |
3.2 结合前景背景特征轨迹的视频去抖算法 |
3.2.1 数学模型 |
3.2.2 特征轨迹的稳定视角估计 |
3.2.3 两种改进策略 |
3.3 实验结果 |
3.3.1 算法耗时 |
3.3.2 去抖性能比较 |
3.3.3 本算法的适用性与局限性 |
3.4 本章小结 |
第4章 基于内容感知分块策略的视频去抖算法 |
4.1 基于分块策略的视频去抖算法概述 |
4.2 基于内容感知分块策略的视频去抖算法 |
4.2.1 预处理与数学模型定义 |
4.2.2 特征轨迹稳定视角估计方法 |
4.2.3 控制点稳定视角估计方法 |
4.2.4 自适应权重设置策略 |
4.3 实验结果与分析 |
4.3.1 测试数据集与评价指标 |
4.3.2 消融实验 |
4.3.3 与现有方法的比较结果 |
4.3.4 参数敏感性实验 |
4.4 本章小结 |
第5章 基于像素级映射估计的视频去抖算法 |
5.1 基于像素级映射估计的视频去抖算法概述 |
5.2 基于像素级映射估计的视频去抖算法 |
5.2.1 训练数据集与预处理 |
5.2.2 网络结构与损失函数 |
5.2.3 使用判别器构成的生成对抗网络 |
5.2.4 实现细节 |
5.2.5 后处理 |
5.3 实验结果 |
5.3.1 消融实验 |
5.3.2 定量实验 |
5.4 算法局限性 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 研究成果与创新点 |
6.2 研究工作展望 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(4)雷达目标模拟器快速测频模块设计(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究历史与现状 |
1.3 本论文的主要研究内容和结构安排 |
第二章 目标模拟器快速测频模块整体方案设计 |
2.1 频率测量与频率合成关键指标分析 |
2.2 测频模块整体方案 |
2.2.1 快速测频单元 |
2.2.2 捷变频单元 |
2.2.3 整体方案设计 |
2.3 测频模块工作流程 |
2.4 本章小结 |
第三章 目标模拟器快速测频模块硬件电路设计 |
3.1 射频输入信号调理电路 |
3.1.1 信号输入功分电路 |
3.1.2 单端转差分电路 |
3.1.3 自动增益控制单元 |
3.1.4 固定增益放大单元 |
3.2 多级分频电路 |
3.2.1 模拟信号分频电路 |
3.2.2 模拟-数字信号转换电路 |
3.2.3 数字分频电路 |
3.3 检波电路 |
3.4 基于TDC的高精度时间-频率测量单元 |
3.4.1 TDC芯片介绍 |
3.4.2 频率快速测量电路 |
3.5 FPGA选型 |
3.6 DDS硬件电路 |
3.6.1 DDS选型 |
3.6.2 DDS模块电路设计 |
3.7 倍频器电路 |
3.8 锁相环频率合成(PLL)电路 |
3.9 电源模块 |
3.10 本章小结 |
第四章 目标模拟器快速测频模块逻辑设计 |
4.1 高精度测频模块逻辑设计 |
4.1.1 TDC配置 |
4.1.2 高速测频数据接收 |
4.1.3 频率控制字快速合成 |
4.2 捷变频单元逻辑设计 |
4.2.1 DDS与 PLL配置 |
4.2.2 频率规划 |
4.2.3 输出频率快速切换逻辑 |
4.3 本章总结 |
第五章 系统测试与结果分析 |
5.1 板级功能测试 |
5.1.1 电源调试 |
5.1.2 输入动态范围测试 |
5.1.3 分频及检波电路功能测试 |
5.2 模块指标测试 |
5.2.1 测频精度测试 |
5.2.2 DDS输出功能测试 |
5.2.3 倍频器输出信号测试 |
5.2.4 DDS与 PLL混频输出测试 |
5.3 板级整体测试 |
第六章 总结与展望 |
6.1 课题结论 |
6.2 展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(5)基于先验约束的超分辨率图像复原方法研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 研究的背景和意义 |
1.2 超分辨率图像复原问题的描述 |
1.2.1 光学成像的退化降质过程 |
1.2.2 超分辨率图像复原方法分类 |
1.2.3 超分辨率图像复原质量的评价 |
1.3 超分辨率图像复原的国内外研究综述 |
1.3.1 基于重建的超分辨率图像复原 |
1.3.2 基于学习的超分辨率图像复原 |
1.3.3 基于稀疏字典学习的超分辨率图像复原 |
1.3.4 视频超分辨率复原 |
1.3.5 其他超分辨率复原方法 |
1.4 研究内容和论文的组织 |
1.4.1 研究内容 |
1.4.2 论文的组织 |
2 基于邻域像素扩展的广义全变分正则化超分辨率图像复原 |
2.1 引言 |
2.2 基于MAP估计求解框架的超分辨率复原和正则化函数构建原则 |
2.2.1 基于MAP估计求解框架的超分辨率图像复原 |
2.2.2 正则化函数的构建原则 |
2.3 邻域像素扩展的广义全变分正则化函数和MM迭代寻优 |
2.3.1 关于双边全变分 |
2.3.2 Minkowski距离和邻域像素扩展的广义全变分 |
2.3.3 E-GTV结合优化-最小化迭代寻优的正则化算法 |
2.4 仿真实验结果与分析 |
2.4.1 BTV中采用不同范数函数形式的性能比较 |
2.4.2 标准测试图像和自拍图像的超分辨率复原实验 |
2.4.3 遥感影像的超分辨率图像复原实验 |
2.5 本章小结 |
3 基于改进保真项与自适应双边全变分的正则化超分辨率图像复原 |
3.1 引言 |
3.2 图像观测模型和代价函数 |
3.3 TUKEY范数构建保真项和权值自适应BTV正则化 |
3.3.1 双边全变分(BTV)正则化项 |
3.3.2 鲁棒估计与Tukey范数函数 |
3.3.3 Tukey范数构建保真项结合权值自适应BTV正则化算法 |
3.4 仿真实验结果与分析 |
3.4.1 标准测试图像Lena的超分辨率复原实验 |
3.4.2 文本图像的超分辨率复原实验 |
3.4.3 自拍图像的超分辨率复原实验 |
3.4.4 使用结构相似性SSIM指标的算法性能评价 |
3.4.5 遥感影像超分辨率复原实验 |
3.5 本章小结 |
4 基于自适应稀疏表示结合正则化约束的超分辨图像复原 |
4.1 引言 |
4.2 稀疏表示和稀疏性约束 |
4.3 非局部自相似先验的正则化技术策略 |
4.4 自适应稀疏表示和改进的非局部自相似正则化项及SRIR算法 |
4.4.1 图像块几何结构信息分析和自适应稀疏表示 |
4.4.2 改进的非局部自相似正则化 |
4.4.3 基于自适应稀疏表示结合改进的非局部自相似正则化算法 |
4.5 仿真实验结果与分析 |
4.5.1 参数设置 |
4.5.2 算法对于不同训练样本集的鲁棒性实验 |
4.5.3 无噪和加噪情况下的实验 |
4.5.4 计算效率实验 |
4.6 本章小结 |
5 基于像素流和时间特征先验的视频超分辨率复原 |
5.1 基于视频时间的超分辨率复原方法存在的问题 |
5.2 空间模糊与运动模糊的形成机制 |
5.3 像素流及退化降质过程建模 |
5.3.1 关于像素流 |
5.3.2 像素流退化降质过程建模 |
5.4 时间特征先验作为解空间约束的像素流超分辨率图像复原 |
5.4.1 像素流SRIR的贝叶斯推理 |
5.4.2 像素流与基于时间特征先验作为解空间约束的建模 |
5.4.3 像素流超分辨率复原结果的估计 |
5.5 低帧率运动模糊单视频的时间超分辨率复原 |
5.6 基于像素流和时间特征先验建模的时-空SRIR算法 |
5.7 仿真实验结果与分析 |
5.7.1 不同的超分辨率复原算法对测试视频的实验比较 |
5.7.2 不同超分辨率算法对真实视频复原的实验比较 |
5.8 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
附录 |
(6)基于DSP的可组网LFMCW雷达信号处理算法研究与硬件设计(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.3 论文主要工作与结构安排 |
2 可组网线性调频连续波雷达方案设计与仿真 |
2.1 引言 |
2.2 雷达组网结构与方案 |
2.2.1 雷达系统组网结构 |
2.2.2 组网关键技术 |
2.3 线性调频连续波雷达工作原理 |
2.3.1 线性调频连续波雷达测距原理 |
2.3.2 线性调频连续波雷达测速原理 |
2.3.3 系统参数选择 |
2.4 目标检测算法研究 |
2.4.1 动目标显示 |
2.4.2 动目标检测 |
2.4.3 恒虚警检测 |
2.5 本章小结 |
3 线性调频连续波雷达系统硬件设计 |
3.1 引言 |
3.2 功能描述与整体方案设计 |
3.3 雷达传感器接口电路设计 |
3.4 DSP及外设电路设计 |
3.4.1 DSP选型依据 |
3.4.2 JTAG接口电路设计 |
3.4.3 EMIF外扩存储接口电路设计 |
3.4.4 通信接口电路设计 |
3.5 电源模块设计 |
3.6 时钟模块设计 |
3.7 回波模拟信号调理电路设计 |
3.7.1 滤波电路设计 |
3.7.2 增益可控放大电路设计 |
3.8 PCB设计要求与实现 |
3.9 本章小结 |
4 线性调频连续波雷达系统软件实现 |
4.1 引言 |
4.2 系统软件总体设计 |
4.3 发射波形控制模块软件实现 |
4.4 信号采集模块软件实现 |
4.5 雷达信号处理模块软件实现 |
4.6 以太网通信软件实现 |
4.7 本章小结 |
5 雷达系统测试与验证 |
5.1 引言 |
5.2 硬件平台调试 |
5.2.1 电源模块调试 |
5.2.2 时钟模块调试 |
5.2.3 EMIF外扩存储电路调试 |
5.3 系统功能验证 |
5.3.1 以太网通信功能验证 |
5.3.2 发射波形控制模块验证 |
5.3.3 数据采集模块验证 |
5.3.4 雷达系统实测 |
5.4 本章小结 |
6 总结与展望 |
6.1 全文总结 |
6.2 下一步工作展望 |
致谢 |
参考文献 |
附录 |
(7)面向虚拟视角合成的客观质量评价方法研究(论文提纲范文)
致谢 |
摘要 |
abstract |
缩略词表 |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状及问题分析 |
1.3 论文主要工作及章节安排 |
2 基于局部几何失真和全局清晰度的DIBR合成图像质量评价 |
2.1 引言 |
2.2 DIBR合成图像质量评价模型 |
2.3 算法性能评价 |
2.4 应用 |
2.5 本章小结 |
3 基于实例和全局降质的DIBR合成图像质量评价 |
3.1 引言 |
3.2 视角合成质量评价算法 |
3.3 算法性能评价 |
3.4 应用 |
3.5 本章小结 |
4 基于结构降质的通用全参考型虚拟视角合成图像质量评价 |
4.1 引言 |
4.2 通用型视角合成质量评价模型 |
4.3 算法性能评价 |
4.4 本章小结 |
5 基于边缘和纹理描述的通用无参考型虚拟视角合成图像质量评价 |
5.1 引言 |
5.2 通用无参考型视角合成质量评价 |
5.3 算法性能评价 |
5.4 本章小结 |
6 基于时域闪烁失真的无参考型虚拟视角合成视频质量评价 |
6.1 引言 |
6.2 合成视频质量评价 |
6.3 算法性能评价 |
6.4 应用 |
6.5 本章小结 |
7 论文总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
作者简历 |
学位论文数据集 |
(8)合成孔径雷达高分辨率成像技术研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 高分辨SAR系统研究现状 |
1.2.2 高分辨SAR成像算法研究现状 |
1.3 论文结构安排 |
第二章 高分辨率SAR成像算法 |
2.1 引言 |
2.2 基于GCS-BAS的滑聚大带宽SAR成像处理算法 |
2.2.1 滑聚大带宽SAR信号模型分析 |
2.2.2 GCS-BAS成像算法 |
2.2.3 数值仿真实验及分析 |
2.3 基于改进的NLCS大斜视SAR成像算法 |
2.3.1 大斜视SAR信号模型及成像算法 |
2.3.2 数值仿真实验及分析 |
2.4 基于FFBP的快速时域成像算法 |
2.4.1 BP和 FFBP算法 |
2.4.2 数值仿真实验和分析 |
2.5 小结 |
第三章 高分辨率SAR运动误差补偿 |
3.1 引言 |
3.2 运动误差分析 |
3.3 基于运动测量数据的运动误差补偿 |
3.3.1 基于两步法的运动误差补偿 |
3.3.2 基于BLUE的方位变加速运动误差补偿 |
3.4 基于回波数据的运动误差补偿 |
3.4.1 PGA及其改进算法 |
3.4.2 基于图像滑窗PGA的全孔径相位误差补偿算法 |
3.4.3 条带SAR实测数据自聚焦处理 |
3.5 小结 |
第四章 ViSAR成像技术 |
4.1 引言 |
4.2 ViSAR帧率分析 |
4.2.1 独立帧率分析 |
4.2.2 交叠帧率分析 |
4.3 ViSAR视频流高效处理方法 |
4.4 ViSAR动目标阴影形成机理研究 |
4.4.1 SAR图像阴影形成机制 |
4.4.2 ViSAR动目标阴影形成条件 |
4.5 ViSAR数值仿真实验 |
4.5.1 均匀场景匀速圆周运动数值仿真 |
4.5.2 基于Mini-SAR复图像数据的动目标SAR视频仿真 |
4.6 小结 |
第五章 基于Staggered的 HRWS SAR成像 |
5.1 引言 |
5.2 Staggered SAR性能分析 |
5.2.1 Staggered SAR信号模型 |
5.2.2 Staggered SAR的 PRI序列设计 |
5.3 单通道Staggered SAR信号处理 |
5.4 AMPC Staggered SAR信号处理 |
5.4.1 AMPC Staggered SAR采样特性分析 |
5.4.2 适用于AMPC Staggered SAR成像的BLUE算法 |
5.4.3 AMPC Staggered SAR仿真实验 |
5.5 小结 |
第六章 总结与展望 |
6.1 本文主要工作内容与创新点 |
6.2 研究展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
附录A |
(9)全景视频的渲染技术研究(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景和意义 |
1.2 研究发展现状 |
1.3 研究内容与结构安排 |
第二章 全景视频相关技术 |
2.1 采集拼接融合 |
2.2 投影映射 |
2.3 编码 |
2.3.1 H.265/HEVC编码过程 |
2.3.2 H.265/HEVC中的Tile技术 |
2.4 传输 |
2.5 渲染 |
2.6 小结 |
第三章 基于投影映射格式的全景视频渲染技术 |
3.1 引言 |
3.2 全景视频渲染平台 |
3.2.1 视频解码转换模块 |
3.2.2 视频渲染显示模块 |
3.2.3 用户姿态处理模块 |
3.3 ERP格式的渲染 |
3.3.1 全景视频投影过程中的坐标系 |
3.3.2 ERP投影 |
3.3.3 ERP格式的渲染 |
3.4 CMP格式及其衍生格式的渲染 |
3.4.1 CMP投影 |
3.4.2 EAC和ACP投影 |
3.4.3 CMP格式的渲染 |
3.4.4 EAC及ACP格式的渲染 |
3.5 CPP格式的渲染 |
3.5.1 CPP投影 |
3.5.2 基于CPP格式的渲染 |
3.6 渲染性能及质量对比实验 |
3.6.1 渲染性能对比 |
3.6.2 渲染质量对比 |
3.7 小结 |
第四章 观看视角优先的在线全景视频渲染系统 |
4.1 引言 |
4.2 基于Tile的在线全景视频渲染显示系统 |
4.2.1 服务器端 |
4.2.2 客户端 |
4.3 基于TSP的在线全景视频渲染显示系统 |
4.3.1 TSP投影 |
4.3.2 服务器端 |
4.3.3 客户端 |
4.4 系统性能 |
4.4.1 性能指标 |
4.4.2 性能对比 |
4.4.3 主观实验 |
4.5 小结 |
第五章 总结与展望 |
5.1 本文工作总结 |
5.2 未来工作展望 |
参考文献 |
致谢 |
附录 |
A OPENGL读取子图像代码 |
B MPD文件内容 |
作者简介 |
(10)智能电梯视频监测系统的设计与实现(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 视频监控系统国内外研究现状 |
1.2.2 电梯安全监测系统国内外研究现状 |
1.3 课题研究内容 |
1.4 论文章节安排 |
第二章 需求分析与整体方案设计 |
2.1 需求分析 |
2.1.1 功能需求 |
2.1.2 数据需求 |
2.1.3 并发需求 |
2.2 整体方案设计 |
2.2.1 系统整体架构设计 |
2.2.2 系统运行流程 |
2.3 本章小结 |
第三章 流媒体视频模块设计与实现 |
3.1 关键技术分析 |
3.1.1 视频采集及编码技术 |
3.1.2 数据存储技术 |
3.1.3 流媒体技术 |
3.2 视频数据采集 |
3.3 电梯安全智能检测 |
3.4 视频数据本地存储 |
3.5 视频数据云端存储 |
3.6 视频相关请求处理 |
3.7 本章小结 |
第四章 Web应用模块设计与实现 |
4.1 负载均衡模块设计 |
4.1.1 负载均衡服务器选型 |
4.1.2 负载均衡算法选型 |
4.1.3 负载均衡服务器构建 |
4.2 应用服务器模块设计 |
4.2.1 应用服务器选型及构建 |
4.2.2 后台应用技术架构设计 |
4.2.3 应用功能设计与实现 |
4.3 数据库存储模块设计 |
4.3.1 数据库存储需求分析 |
4.3.2 数据库存储方案设计 |
4.3.3 MySQL数据库设计与实现 |
4.3.4 Redis缓存设计与实现 |
4.4 本章小结 |
第五章 人机交互模块的设计与实现 |
5.1 人机交互界面设计 |
5.1.1 网页前端技术分析 |
5.1.2 人机交互界面设计 |
5.2 视频播放插件设计 |
5.2.1 ActiveX技术简介 |
5.2.2 视频播放插件设计 |
5.2.3 视频播放插件使用 |
5.3 本章小结 |
第六章 系统测试 |
6.1 测试环境 |
6.2 系统测试及结果分析 |
6.2.1 功能测试 |
6.2.2 性能测试 |
6.3 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
致谢 |
参考文献 |
作者在攻读硕士学位期间学术成果 |
四、雷达视频-时基压缩系统的一种简单实现及性能分析(论文参考文献)
- [1]大规模场景下海量视频的拼接与动态调度方法[D]. 代清. 北京邮电大学, 2021(01)
- [2]取样示波器精密时基模块技术研究[D]. 李子桐. 中北大学, 2020(09)
- [3]基于时空优化的视频去抖算法研究[D]. 赵敏达. 中国科学技术大学, 2020(01)
- [4]雷达目标模拟器快速测频模块设计[D]. 何昊. 电子科技大学, 2020(07)
- [5]基于先验约束的超分辨率图像复原方法研究[D]. 徐梦溪. 南京理工大学, 2020(01)
- [6]基于DSP的可组网LFMCW雷达信号处理算法研究与硬件设计[D]. 赵成璐. 南京理工大学, 2020(01)
- [7]面向虚拟视角合成的客观质量评价方法研究[D]. 周玉. 中国矿业大学, 2019(04)
- [8]合成孔径雷达高分辨率成像技术研究[D]. 易天柱. 国防科技大学, 2019(01)
- [9]全景视频的渲染技术研究[D]. 汪泽伟. 西安电子科技大学, 2019(02)
- [10]智能电梯视频监测系统的设计与实现[D]. 臧坤. 东南大学, 2019(06)