一、采用神经网络算法的机器视觉成像器(论文文献综述)
陈晴[1](2021)在《面向建筑设施的履带式机器人自动化巡检关键技术研究》文中研究说明随着城市化进程不断推进,包括管廊、隧道和大型库房等功能性建筑设施已成为了现代城市的基本组成部分,并由于这些建筑设施功能的基础性和普惠性,一旦其结构出现缺陷和病变而造成功能失效,必将严重影响城市的正常运转和市民的正常生活。因此,对这些建筑设施健康状况全天候无死角地监控一直以来受到业界的普遍重视,并形成了以移动巡检为主体的监控技术体系,重点发展了基于移动机器人的自动化巡检技术手段,有效解决了建筑设施分布面广、内部结构复杂、缺陷病变多样、工作环境恶劣等所带来的挑战。但是,目前基于移动机器人的自动化巡检技术还存在机器人爬行运动、自主导航以及缺陷病变视觉检测等能力有限的问题,必须予以突破。基于以上背景,本文提出开展面向建筑设施的履带式机器人自动化巡检关键技术研究,在了解国内外建筑设施机器人巡检相关技术研究现状及其发展趋势的基础上,确定建筑设施履带式机器人自动化巡检总体技术方案,完成履带式机器人机械本体的设计,重点解决履带式机器人运动控制与定位导航及建筑设施结构与裂缝视觉检测等关键技术,并实现系统的集成。同时,还开展实验研究以验证本文所研发技术的可行性和有效性。主要研究工作体现在:第一章,论述了论述建筑设施应用及其巡检技术研究的重要意义,系统总结了国内外建筑设施机器人自动化巡检相关技术的研究现状及其发展趋势,分析了当前建筑设施机器人自动化巡检技术所存在的问题及相应的对策,明确了论文的研究方向。同时,还对论文的研究内容及其章节进行了安排。第二章,分析移动机器人运动学建模、自主定位与导航以及机器视觉相关理论,为履带式机器人运动控制与定位导航算法及建筑设施结构与裂缝视觉检测算法的研究奠定必要的理论基础。同时,在明确面向建筑设施的履带式机器人自动化巡检系统功能与性能目标的基础上,完成了系统总体方案的设计,并凝练了有待解决的关键技术。第三章,开展履带式机器人运动控制与定位导航技术研究。在建立摆臂履带式机器人运动学模型和各类传感器数学模型的基础上,结合彩色相机、深度相机及IMU等多传感器信息,采用图像对齐与基于直接直线检测法和Sobel边缘检测算法的楼梯结构参数检测方法,提出了一种基于多信息融合的自动化爬梯技术。同时,使用扩展卡尔曼滤波融合里程计与IMU信息,改善履带式机器人的定位导航性能。第四章,开展建筑设施结构与裂缝的机器视觉检测技术研究。在建立相机数学模型的基础上,采用SIFT特征点匹配和运动恢复结构方法,引入滤光处理,根据机器人巡检过程中获得的图片进行结构重建,获得建筑设施内部结构的点云图。同时,使用改进的U-Net神经网络对采集图像进行处理,实现了建筑设施结构裂缝的检测。第五章,基于上述各章节所研发的理论与技术成果,采用分布式体系结构、模块化设计策略,在完成关键软硬件模块研发的基础上,进行了系统集成,研发出一套面向建筑设施的履带式机器人自动化巡检系统。同时,使用该系统进行履带式机器人的楼梯爬行、自主定位与导航及建筑设施结构与裂缝机器视觉成像检测等实验研究,以证实本文研发技术与系统的可行性和有效性。第六章,对全文的研究内容进行总结,对此后进一步深入研究进行展望。
梁松伟[2](2021)在《基于多源异构视觉的变电站机器人巡检技术研究》文中研究指明变电站是电力系统的基石与枢纽,其健康状况对电力系统的安全运行起到至关重要的作用,对国民经济发展与人民生命财产安全有着重大的影响。因此,对变电站设备进行工况监测与故障诊断具有重要的意义。由于变电站设备种类多、分布广和环境差异大,目前主要采用人工巡检的方式对变电站设备进行工况监测与故障诊断,但受到劳动强度、业务水平及天气环境等多种因素影响,这种方式易发生漏检、误检及检测人员人身安全难以保证等问题。随着机器人与视觉检测技术的发展,将两者有机融合实施的巡检技术可替代人工方式,具有明显的技术优势,成为了研究的热点之一。然而,已有的变电站机器人巡检主要依靠预置位模式获取图像,即机器人运动到预定位停止才能调整云台和相机参数完成基础图像获取,严重制约巡检效率。另外,单源视觉难以全面刻画变电站设备结构尺寸、形状组成和温度分布等不同特性的信息,且现有利用深度学习实施的视觉检测与识别方法,存在性能有限和通用性不强等问题。基于以上背景,提出开展基于多源异构视觉的变电站机器人巡检技术研究。在了解变电站机器人巡检相关技术研究现状及其发展趋势的基础上,确定变电站机器人巡检总体技术方案,重点解决机器人与云台一体化运动控制及多源异构视觉检测与目标识别等关键技术,完成轻量化云台的研发与系统的集成。同时,开展实验研究,以验证其可行性与有效性。主要研究工作体现在:第一章,论述了变电站运维及开展巡检技术研究的重要意义,总结了变电站机器人巡检相关技术的研究现状及发展趋势,分析了目前变电站机器人巡检技术所存在的问题与相应的对策,明确了论文的研究方向,同时,对论文的研究内容及各章节进行了安排。第二章,明确了多源异构机器视觉的技术框架,分析了可见光和红外的成像机理及其影响因素,介绍了数字图像处理与基于深度学习的图像分析方法,奠定了多源异构机器视觉的理论基础。同时,明确了面向变电站巡检的机器人系统功能目标,设计了机器人巡检系统的技术方案,并凝练了亟待解决的关键技术。第三章,开展巡检机器人与云台一体化运动控制技术研究。在明确三维空间位姿描述方法的基础上,完成了相机内外参数建模及参数标定,进行了机器人与云台运动学分析,建立了机器人与云台一体化运动学模型,实现了图像数据动态获取的视觉伺服控制。第四章,开展多源异构机器视觉检测与目标识别技术研究。利用可见光和红外相机采集变电站各类设备状态图像,完成了图像数据集制作与扩容。同时,采用YOLOv3构建了多源异构视觉通用化检测模型,并融合路径聚合网络和深度可分离卷积,不仅增强了特征的提取能力,而且降低了网络模型的规模,提高了检测实时性,从而实现了高性能多源异构视觉检测与目标识别。第五章,基于上述各章节所阐述的理论与技术成果,采用分布式体系与模块化设计,将多源异构视觉检测与移动机器人技术有机融合,在完成关键软硬件模块研发与系统集成的基础上,研发出一套变电站机器人巡检系统。同时,利用该系统进行运动控制、视觉检测等相关巡检实验研究,以证实系统的可行性和有效性。第六章,总结了本文研究内容及创新点,并对今后进一步研究进行展望。
曹景军[3](2021)在《基于深度学习的双孢菇采摘机器人视觉系统研究》文中研究说明双孢菇是最常见的食用菌品种之一,其种植方式逐渐从传统的小规模个体栽培向规模化生产的智能工厂转变。在双孢菇智能工厂中,大多数生产工序已实现机械化和自动化,但采收成熟的双孢菇以及品质分级仍然主要依靠人工手动完成。人工采摘与品质分级劳动强度大、成本高并且十分枯燥。双孢菇自动采摘与品质分级成为该产业中的迫切需求。视觉系统是采摘机器人中的一项重要组成部分,开展双孢菇采摘机器人视觉系统研究对实现双孢菇自动化采摘及品质分级具有重要作用。本文围绕双孢菇自动采摘与自动品质分级的产业需求,重点研究了视觉系统中的多模态目标检测和轻量级品质分级核心算法,并搭建了双孢菇采摘机器人视觉系统,为实现双孢菇自动化采摘及品质分级提供了有力技术支撑。概括而言,本文的主要研究成果包括:(1)构建了双孢菇图像数据集合。为了提高双孢菇目标检测算法性能,构建了具有2300幅图像的双孢菇多模态目标检测数据集合,为了自动识别双孢菇品质等级,构建了具有1200幅图像的双孢菇品质分级数据集合,为开展相关研究提供了数据基础。(2)提出了一种多模态注意力融合网络进行双孢菇检测。该网络通过融合双孢菇可见光和深度图像特征来提取更全面的信息,采用多尺度架构增加感受野。使用注意力机制自适应地对特征通道进行标定,使网络关注于更重要的信息。当某个模态信息发生较大变化或者缺失时,通过模态间信息互补的方式,提升了检测器在光线较强和阴影条件下的准确性与健壮性。(3)提出了一种轻量级神经网络算法解决双孢菇品质分级问题。为了提高双孢菇品质分级效率,提出了一种压缩模块,该模块的主要设计思路是将串行的下采样操作和卷积运算转换成并行结构,基于该压缩模块,构建了一种轻量级神经网络‘Light Net’来解决双孢菇品质分级问题。所提出的网络具有更少的参数量和计算量,并且分级精度达到了97.50%。该网络通过提取双孢菇图像特征,自动将双孢菇分成优质和劣质两个级别,劣质中包括畸形和锈斑等情况。同时,为了测试该算法的泛化能力,在茭白品质分级图像数据集合上开展实验,分级精度达到95.62%,实验结果证明该网络可以拓展应用于其他有关农产品品质分级的任务中。(4)搭建了用于双孢菇采摘的机器视觉系统。设计并实现了双孢菇三维空间定位方法与双孢菇采摘路径规划方法,研发了双孢菇采摘机器人视觉系统,并将该视觉系统与双孢菇采摘机器人硬件装置进行集成,执行20组实验对视觉系统进行测试,实验结果证明了该视觉系统可以精确地检测与定位双孢菇。通过上述工作,本文对双孢菇自动采摘与品质分级问题进行了深入研究,研究结果表明:提出的多模态注意力融合网络提升了双孢菇检测性能。提出的轻量级神经网络具有更低的时间复杂度和空间复杂度,并且保持了相当的双孢菇品质分级精度。并将研发的视觉系统与双孢菇采摘机器人硬件装置进行了集成,实验结果证明了该视觉系统的准确性与有效性,为双孢菇自动采摘与品质分级提供了有力技术支撑。
王诗宇[4](2021)在《智能化工业机器人视觉系统关键技术研究》文中研究指明工业机器人是先进制造系统中最具代表性的设备之一,被越来越多地应用到现代化生产制造过程,代替人工高效地执行各种复杂环境下的工业生产任务。传统依照预设程序实现重复动作任务的工业机器人应用已经无法适应当前复杂多样的生产任务需求,需要工业机器人具备更高的智能化程度顺应制造业向智能化转型的发展趋势。进一步提升工业机器人对外部环境的感知能力是当前智能化工业机器人的主要发展方向,由于视觉传感器能够为工业机器人提供更加完整的环境信息,同时具备非接触测量等优势,视觉感知能力已经逐渐成为智能化工业机器人最重要的感知能力之一,因此为工业机器人配备视觉系统是提升工业机器人智能化程度的主要手段,在复杂多样的生产任务中具有显着的实用性。本文充分阐述了工业机器人视觉系统的组成结构及各部分功能的实现原理,分析了国内外工业机器人视觉技术的研究与应用现状。在此基础上,开展了智能化工业机器人视觉系统关键技术的研究,探索了不同视觉任务需求下结合不同类型工业机器人的智能化应用研究。本论文开展的主要研究内容如下:1.研究工业机器人视觉系统成像原理。建立真实世界与图像像素之间精确的映射关系是后续工业机器人准确执行视觉任务的前提和保证。通过描述四个坐标系之间的变换过程,解释了真实场景中世界坐标向数字图像像素的投影过程,并通过建立线性成像模型明确了相机的内外参数矩阵。在此基础上,介绍了实际成像过程中由镜头引起的畸变类型,引入畸变系数建立更接近真实成像过程的非线性模型。相机标定过程能够确定每次成像过程相机的内外参数,通过张正友相机标定方法详细介绍了相机标定过程中相关参数的求解方法和优化过程,并利用张氏标定法完成对不同型号工业相机的参数求解过程。2.研究2D视觉任务下并联机器人对传送带上多种类随机分布目标的高速分拣应用,设计并搭建了一套基于2D机器视觉系统的分拣实验平台。通过建立用户坐标系实现目标对象从视觉任务空间到并联机器人作业空间的映射,并利用图像去重复算法实现对传送带上动态目标的视觉信息采集。选择稳定的边缘特征作为不同目标类别的判断依据,分别对传统Canny边缘检测算子和基于深层卷积神经网络的RCF边缘检测算法进行优化,分析比较两种边缘提取方法的性能。针对目标的旋转情况,利用稳定的边缘特征提出一种基于边缘质心距离的匹配模型,完成对不同类别目标的匹配过程。分拣实验结果表明并联机器人末端能够成功抓取传送带上的动态目标,证明机器人末端与2D视觉系统间建立了正确的手眼变换模型,图像去重复算法有效剔除了重复信息;机器人末端将目标对象按照固定姿态和类别正确放置,证明了2D视觉系统完成了对目标对象的正确匹配和目标2D姿态的准确计算。3.研究2.5D视觉任务下视觉系统引导六自由度关节型工业机器人的精准定位应用。在航天领域粒子辐照试验背景下,针对粒子辐照试验的任务需求及当前试验流程存在的不足,设计并搭建了一套自动化辐照试验平台。利用2.5D视觉系统完成对目标对象辐照位置的信息采集,对特征匹配过程得到的匹配点对进行统计分析,并结合目标显着性原理,提出了一种基于区域分布差异的特征匹配方法,完成复杂背景下实例目标的检测过程,实现辐照参数的调用。通过给出一种误差权重分配方法不断优化工业机器人末端与视觉系统间的手眼关系模型,保证辐照试验过程束流照射位置的精度。最终自动化辐照试验平台准确完成了粒子辐照流程,证明了所提方法的有效性。4.研究3D视觉任务下工业机器人对空间任意位姿目标物体的抓取应用,并利用六自由度关节型机器人结合双目视觉系统搭建了3D目标抓取实验平台。工业机器人对空间任意位姿目标的准确抓取依赖3D视觉系统对空间目标六自由度位姿信息的正确估计。通过研究双目视觉系统的成像过程及实现目标深度信息恢复过程的视差原理,将目标在左右视图中对应的匹配点对形成空间三维点云,提出一种基于全局结构特征约束的目标估计方法,将描述目标结构的全局特征量化为点云重建过程的约束条件,实现对目标物体的六自由度位姿估计。实验结果表明机器人末端能够以相应姿态完成对任意摆放目标的抓取,证明了所提方法的可行性。本文分别构建了2D、2.5D和3D视觉任务下工业机器人结合视觉系统的应用环境,探索了不同类型工业机器人在结合视觉系统的应用过程所涉及的关键技术,对并联型工业机器人和六自由度串联型工业机器人与视觉系统间的手眼关系模型、复杂背景条件下的实例目标检测和目标物体空间六自由度位姿估计等关键技术进行了研究,本文以实验室承担的“智能机器人”国家重点研发计划和“高档数控机床与基础制造装备”国家科技重大专项项目研发任务为背景,研究内容涵盖了多种机器人结合视觉系统的应用场景,能够为今后工业机器人智能化的研究提供一定的参考依据。
陈思俊[5](2021)在《基于机器视觉的熔体直纺长丝断头检测系统研究》文中研究表明熔体直纺长丝作为一种重要的工业纺织品生产原料,在生产生活中用途十分广泛。为方便熔体直纺长丝的存储和运输,化纤企业通常将其卷绕成化纤丝饼。在卷绕过程中,熔体直纺长丝由于导丝辊拉力不稳定以及挂钩处局部受力不均等因素影响,部分纺丝会发生断裂并出现长丝局部断头现象。企业将熔体直纺长丝局部断头的严重程度作为评判化纤丝饼质量等级的主要指标之一。目前,由于缺乏熔体直纺长丝断头自动化检测方面的相关研究,化纤生产线上主要还是依靠人工方式进行长丝断头检测。近年来,随着劳动力成本的不断上升以及化纤生产规模的持续扩大,人工检测方式在检测效率和检测准确率等方面劣势日益凸显。为实现熔体直纺长丝断头自动化巡检,提高企业生产效率,本文基于机器视觉相关理论知识,研究并设计了一套专用的熔体直纺长丝断头自动化检测系统。课题的主要工作内容包括以下几方面:(1)熔体直纺长丝断头视觉检测装置设计。根据车间实际生产环境,选择滑轨式巡回小车作为检测装置的基础平台;考虑到熔体直纺长丝断头本身细长且难以直接采集和识别的特性,提出了一种由两种不同视野的工业相机协同工作的双摄像头结构,该结构通过采集、定位、再采集、识别和分类的检测流程实现熔体直纺长丝断头的高效巡检与分类;最后,参照实际环境中的视场参数完成伺服系统硬件和视觉检测系统硬件的选型。(2)提出了一种基于模板匹配算法和K-means无监督聚类算法的协同优化算法来实现熔体直纺长丝挂钩的快速统计和精准定位。通过短焦距大视野工业相机获取单个工位的长丝挂钩整体图像后,首先对采集到的图像进行分块和挂钩匹配模板选取,并通过模板匹配算法进行快速匹配,将匹配度较高的点坐标保留;然后通过K-means无监督聚类算法得出聚类核坐标以及核数量;最后将聚类核坐标和聚类核的数量分别作为熔体直纺长丝挂钩的坐标和数量进行输出。(3)提出了一种基于霍夫变换和RBF神经网络的熔体直纺长丝断头检测和分类算法对长丝断头作进一步的检测和分类。在获取清晰的熔体直纺长丝图像后,该算法首先采用小波软阈值平滑和阈值分割算法进行图像增强处理,消除背景噪声点对长丝主体的干扰,提升提取的特征信息的可信度;然后通过霍夫变换实现长丝主体与断头部分的形状分割,为后面形状特征提取作铺垫;最后基于提取的多个形状特征,建立和训练径向基函数神经网络模型,实现熔体直纺长丝断头的检测和分类。为了验证本文系统算法的可行性,使用Intel Core i7-10750H CPU,Win10操作系统下的工控机作为硬件平台,基于MATLAB R2018b软件平台进行算法运算和参数分析。试验结果表明该系统可以快速精准实现熔体直纺长丝图像采集,在去除图像背景噪点,实现长丝主干和断头形状分割,高效识别和分类熔体直纺长丝断头方面具有一定的实时性和准确性,为将来实现熔体直纺长丝断头检测提供了理论参考。
曹旭明[6](2021)在《日用陶瓷多类型多目标识别与双目定位研究》文中指出日用陶瓷是供日常生活使用的各类陶瓷制品,主要包括餐具、茶具和其他陶瓷器皿等,具有类型多和造型差异大的特点。为了实现机器分拣要求,提出了一种基于深度学习日用陶瓷的多类型多目标识别和双目定位方法,主要研究内容及工作如下:1.研究并改进了YOLOv3网络模型,运用改进的模型,在TensorFlow的框架下,搭建了基于深度学习多目标检测系统,实现了选定的六种日用陶瓷类型识别。实验表明网络的学习能力强,类型识别率高。2.对目标识别算法进行了轻量化研究。研究采用K-means算法对anchorbox重新聚类生成符合日用陶瓷类型目标检测的预测框尺寸,提出并实现了以轻量级模型MobileNet v3替换原YOLOv3中的DarkNet-53特征提取网络,得到了轻量化的YOLOv3-M3网络模型。对比其它网络模型,该模型在所有选定的日用陶瓷类型识别精确度明显优于其他模型,MAP值达到90.27%,对输入416×416的视频流,检测速度在18fps以上,且模型占用内存较少。3.搭建了双目立体视觉平台,并对系统进行了标定。针对日用陶瓷弱纹理匹配问题,研究使用了基于SGBM半局部匹配算法。对图像进行灰度化处理,通过轻量化模型识别出图像中日用陶瓷区域,获得目标中心点的位置,根据双目定位原理,实现了日用陶瓷目标中心点定位,定位的平均误差为7.405mm,误差率为0.92%,能满足日用陶瓷分拣要求。
肖贤鹏[7](2021)在《基于机器视觉的核废物分拣方法研究》文中研究指明随着我国“安全高效发展核电”的“十三五规划”实施,截止2020年,我国核电运行和在建装机将达到近8800万千瓦,而核废物安全高效处置是保障核能可持续发展、核技术安全应用的关键。本课题围绕目前核废物处置中的回取与分拣作业需求,针对当前遥操作机器人进行核废物分拣时,仅通过监控相机由操作人员遥控作业时存在的信息感知能力不足,作业效率低下的问题,研究基于机器人视觉的核废物分拣作业方法,将机器人自主抓取引入核废物回取与分拣,使用目标检测网络和最优抓取位姿估计网络级联的分拣算法,完成对核废物的分拣。搭建冷实验平台、建立了核废物模拟数据集,验证算法的有效性。本文主要研究工作如下:(1)构建了机器人分拣系统框架,通过Universal Robots5机械臂和Inter Real Sense立体相机建立手眼标定模型,完成系统手眼标定工作。(2)设计了基于改进Retina Net网络的核废物检测和分类模型。通过改进网络结构,减少了Retina Net网络特征提取层数并增加多尺度感受野模块提高网络速度和精度。在PASCAL VOC数据集和核废物模拟数据集上分别进行训练和测试,前者均值平均精度m AP=79.5%,每秒传输帧数FPS=31.95帧/秒。分别以RGB图和RGD图建立核废物模拟数据集,并进行训练和测试,RGD图由RGB图中的蓝色B通道替换为深度图D得到,其测试精度和速度分别为95.14%和37.96帧/秒,优于RGB图。(3)核废物最优抓取位姿估计。针对核废物的不可预测性、外观差异性,设计了基于Res Net-50主干网络,融合FPN多尺度特征的最优抓取位姿估计网络模型,以RGD信息为输入,生成抓取候选框;并将抓取方向坐标映射为抓取方向的分类任务,获取目标的最优抓取位姿。基于康奈尔抓取数据集开展了抓取位姿估计实验,抓取位姿估计准确度达到了96.9%,验证了模型的有效性。(4)开展了机器人分拣系统实验与分析。完成了目标检测网络和位姿估计网络级联,并搭建了实物实验平台,对算法性能进行了测试验证。本文提出一种基于机器视觉的核废物分拣方法,能够有效实现对目标的检测分类及位姿估计,实现高效分拣作业。课题研究成果有助于提高核废物分拣作业的智能化和自动化水平,对提高机器人在核废物处置中的任务适应性有一定的工程应用价值。
刘学超[8](2021)在《基于深度相机的汽车转向节位姿估计研究》文中研究说明近年来,随着机器人技术以及机器视觉技术的蓬勃发展,传统的制造业也在进行技术升级。越来越多的机器人开始进入工厂车间,承担各种各样的任务,利用视觉传感器配合机器人完成各种任务成为了工业自动化领域的重要组成部分。传统的视觉引导机器人定位主要面向2D及摆放整齐的场景,难以解决具有不同姿态工件的定位及抓取。本文结合实际针对汽车转向节加工过程中的的上下料,使用2D图像处理配合点云处理实现转向节的定位。首先,分析了机器视觉技术、基于点云进行6D姿态估计的不同方法。构建了转向节6D检测整体方案,研究了深度相机的成像原理,针对相机的畸变进行了标定,并根据标定结果产生点云。其次,针对转向节中心孔尺寸有偏差,无法直接利用点云配准技术实现3D坐标间接定位这一问题,设计了利用2D图像处理确定像素坐标配合深度相机索引深度值来确定抓取点3D坐标的算法。然后,针对转向节的姿态各异,抓取时需要进行姿态估计这一问题,提出利用SAC-IA算法将待检测转向节点云与模板转向节点云进行初始配准,获取初始转换矩阵,再利用NDT算法进行细配准,最终的匹配得分为27mm2,确定了待抓取转向节的精确姿态。最后,进行软件开发与系统测试。在Windows系统平台上使用VS2015编译器、OpenCV视觉库和MFC设计转向节位姿检测系统软件,采用Intel RealSense D435i相机采集转向节图片在软件中进行可视化处理和分析。
郑翔[9](2021)在《基于深度学习的人数统计算法研究》文中进行了进一步梳理在室内场景下对人群数量的计算和统计有助于管理者优化配置公共资源,预防区域内人群密度过大带来的踩踏事故,可实现公共场所的智能化管理。基于传统硬件传感器的客流统计虽已得到较为广泛的应用,但存在应用场景限制和需要预先规划部署等局限性。而随着计算机视觉算法领域的快速发展,基于视觉传感器的人数统计方法较之更为灵活、准确,但也存在人体姿态、复杂背景干扰等众多难题。为此,本文基于多模图像信息(可见光图像信息和深度图像信息),利用计算机视觉算法和深度网络算法,对室内场景下的人数统计问题进行了深入的研究,主要研究内容和结果如下。依据多模图像数据采集和低功耗设备运行算法的研究需求,选用了以Intel D435深度相机和NVIDIA Jetson nano嵌入式开发套件为基础硬件搭建了多模图像实验平台,研究了多模图像数据处理中的相关技术,为后续人数统计方法研究提供了图像数据基础。研究分析了人数统计算法产生的目标误检问题的原因,提出了一种基于深度图像信息的人数统计错检去除方法。首先利用深度图像信息对室内场景进行了背景建模,同时基于背景模型对前景目标进行了检测。基于行人目标检测结果和前景目标区域的占比对检测结果进行了有效性分析,从而提高算法的识别能力和准确性。经过实验分析可得,利用多模图像信息可以有效解决复杂背景带来的行人目标误检测问题。在利用深度图像数据解决错检目标问题的基础上,深入研究了RetinaFace算法,提出了一种针对嵌入式设备的RetinaNet网络的优化方法。主干网络替换为MobileNet并加入SSH检测模块,对网络的轻量化处理提高了算法的检测速度;然后在轻量化网络基础上,设计了一种基于多模图像特征融合的深度网络模型,采用双通道结构实现彩色图像与深度图像的同时输入,利用Res Net网络提取深度图像特征,在输入多尺度特征层前进行通道拼接;然后通过去除任务无关函数以简化损失函数;最后利用公开数据集对网络模型进行了训练,设计并完成了对比试验。结果表明针对嵌入式设备的RetinaNet网络优化方法可以有效提高在设备上的实时检测速度;并且基于多模图像特征融合的深度网络模型在引入深度图像信息后仍具有较好的识别准确率,能够有效满足在嵌入式设备上的检测任务需要。基于便携式人数统计系统设计需求和开发运行环境,利用多模图像实验平台硬件设备的低功耗特性,拓展通信模块以及电源模块实现了系统的便携式部署;在嵌入式设备上设计了多模图像采集功能和人数统计功能;利用socket编程优化了用户端与设备端的网络通讯以完成了系统部署;最后,设计了基于Qt的操作界面,从而开发了一套便携式人数统计系统。结果表明本文所设计的便携式人数统计系统能够满足对室内场景下的人数统计任务需要。
蒲屹宇[10](2021)在《欠驱动机械臂末端视觉目标跟踪技术及实验验证》文中认为随着人工智能与智能制造逐渐兴起,为适应复杂多变的外部环境,智能化技术成为当前的研究热点。为提高控制系统的智能化程度,本文搭建了视觉感知的智能欠驱动机械臂平台,设计了基于机械臂末端视觉的目标检测、跟踪算法,并对其性能进行了验证。本文的主要工作有:一、设计了用于图像特征提取的视觉感知模块。本模块经图像预处理、目标检测、特征点提取及更新的流程后,可实现对目标特征点的有效提取。基于对本文环境下相机成像特点的分析,设计了基于传统滤波与基于卷积神经网络两种方式的目标检测算法。前者时间开销更小,但在背景极为复杂的情况下效果不佳。后者需要特定的软件与硬件支持。模块处理速度能达到30FPS,兼顾了精度与实时性的需求。二、设计了一种基于位置的目标跟踪算法。能够根据目标特征点的变化解算出目标空间位置,再得出控制期望。但是,该方案由于单目视觉深度信息的丢失,对目标的空间位置解算误差较大且其计算复杂度较大不能满足实时性要求。三、针对上述方案的不足,提出了一种基于图像的视觉伺服目标跟踪方案。该方案直接将控制误差定义在图像空间,不需要对目标空间位置进行求解,加快了算法的速度,并对移动目标进行了优化,算法能更快收敛;此外,利用卡尔曼滤波对系统延迟进行误差补偿,并对欠驱动系统的运动耦合进行了特征点位置补偿。算法能够快速收敛,满足实时性需求,且具有较好的鲁棒性。四、集成了欠驱动机械臂平台并对目标跟踪算法进行了实验验证。在原平台上外加单目相机集成实验平台,并利用不确定与干扰估计器对平台控制进行补偿,基于上述视觉感知模块与目标跟踪模块,搭建并测试了欠驱动机械臂实物平台。结合平台的控制模型在MATLAB中设计了对静止、移动目标跟踪的仿真实验,设计了对移动机器人跟踪的实物实验。仿真实验与实物平台测试结果均表明,本文所设计的针对移动目标的检测跟踪算法切实有效,该欠驱动机械臂平台可结合单目视觉实现平台的智能化。本文所设计的基于视觉的智能化欠驱动机械臂平台,实现了机械臂末端对目标的自主跟踪控制,同时适用于视觉控制理论的实物仿真与实验教学,具有一定的应用与研究价值。
二、采用神经网络算法的机器视觉成像器(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、采用神经网络算法的机器视觉成像器(论文提纲范文)
(1)面向建筑设施的履带式机器人自动化巡检关键技术研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.1.1 巡检技术是建筑设施建康状况有效监测的重要手段 |
1.1.2 建筑设施移动机器人自动化巡检技术成为研究热点 |
1.2 建筑设施机器人自动化巡检相关技术研究现状及其发展趋势 |
1.2.1 移动机器人及其应用的研究现状与发展趋势 |
1.2.2 建筑设施视觉检测技术的研究现状与发展趋势 |
1.2.3 建筑设施机器人自动化巡检所面临的挑战 |
1.3 研究内容和章节安排 |
第二章 建筑设施机器人自动化巡检技术基础及其系统总体方案 |
2.1 引言 |
2.2 建筑设施机器人自动化巡检技术基础 |
2.2.1 移动机器人相关基础 |
2.2.2 机器视觉相关基础 |
2.3 建筑设施机器人自动化巡检系统总体方案 |
2.3.1 巡检系统的技术方案 |
2.3.2 亟待解决的关键技术 |
2.4 本章小结 |
第三章 履带式机器人运动控制与定位导航技术 |
3.1 引言 |
3.2 履带式机器人的运动与爬梯控制 |
3.2.1 履带式机器人的运动控制 |
3.2.2 履带式机器人的爬梯控制 |
3.3 履带式机器人的自主定位与导航 |
3.3.1 基于多信息融合的导航地图构建 |
3.3.2 基于多信息融合的机器人自主定位与导航 |
3.4 本章小结 |
第四章 建筑设施结构与裂缝的机器视觉检测技术 |
4.1 引言 |
4.2 建筑设施结构的机器视觉检测 |
4.2.1 建筑设施结构的机器视觉成像 |
4.2.2 建筑设施结构视觉图像的重建 |
4.3 建筑设施裂缝的机器视觉检测 |
4.3.1 U-Net神经网络模型的改进 |
4.3.2 训练损失函数与参数的确定 |
4.4 本章小结 |
第五章 面向建筑设施的履带式机器人自动化巡检系统 |
5.1 引言 |
5.2 系统研发 |
5.2.1 硬件部分 |
5.2.2 软件部分 |
5.2.3 系统集成 |
5.3 实验研究 |
5.3.1 履带式机器人的楼梯爬行实验 |
5.3.2 履带式机器人的自主定位与导航实验 |
5.3.3 建筑设施结构与裂缝的机器视觉检测实验 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
(2)基于多源异构视觉的变电站机器人巡检技术研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 论文的研究背景及意义 |
1.2 变电站机器人巡检相关技术研究现状及其发展趋势 |
1.2.1 巡检机器人技术的研究现状及其发展趋势 |
1.2.2 变电站检测技术的研究现状及其发展趋势 |
1.2.3 变电站机器人巡检面临的挑战 |
1.3 本文研究内容和章节安排 |
第二章 机器视觉理论基础及变电站巡检技术方案 |
2.1 引言 |
2.2 机器视觉的理论基础 |
2.2.1 多源视觉成像的理论基础 |
2.2.2 数字图像处理的理论基础 |
2.3 变电站机器人巡检系统总体方案 |
2.3.1 巡检系统的技术方案 |
2.3.2 亟待解决的关键技术 |
2.4 本章小结 |
第三章 巡检机器人与云台一体化运动控制技术 |
3.1 引言 |
3.2 位姿描述方法与相机模型 |
3.2.1 三维空间位姿描述 |
3.2.2 相机建模与标定 |
3.3 巡检机器人与云台运动学分析 |
3.3.1 机器人运动学建模 |
3.3.2 云台运动学建模 |
3.3.3 机器人与云台一体化运动学建模 |
3.4 面向巡检数据动态获取的一体化控制技术 |
3.5 本章小结 |
第四章 多源异构视觉检测与目标识别技术 |
4.1 引言 |
4.2 变电站设备图像数据集制作与扩容 |
4.2.1 多源异构图像数据集的建立 |
4.2.2 多源异构图像数据集的增强 |
4.3 基于YOLOv3改进的视觉检测与识别算法 |
4.3.1 多源异构视觉检测与目标识别模型的建立 |
4.3.2 路径聚合网络和深度可分离卷积的融合 |
4.4 模型训练与评估 |
4.4.1 模型训练策略 |
4.4.2 算法评价指标 |
4.5 本章小结 |
第五章 变电站机器人巡检系统集成及实验研究 |
5.1 引言 |
5.2 云台研发 |
5.2.1 技术指标 |
5.2.2 云台硬件部分 |
5.2.3 云台软件部分 |
5.3 系统研发 |
5.3.1 硬件部分 |
5.3.2 软件部分 |
5.3.3 系统集成 |
5.4 实验研究 |
5.4.1 巡检机器人与云台一体化运动控制实验 |
5.4.2 多源异构视觉检测与目标识别实验 |
5.4.3 变电站机器人自动化巡检实验 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历 |
(3)基于深度学习的双孢菇采摘机器人视觉系统研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景 |
1.2 国内外研究现状 |
1.2.1 目标识别与目标检测技术研究现状 |
1.2.2 目标定位技术研究现状 |
1.2.3 农业机器人视觉系统研究现状 |
1.3 研究目的与意义 |
1.4 研究思路与内容 |
1.4.1 主要研究思路 |
1.4.2 主要研究内容 |
1.5 研究的创新点 |
1.6 论文组织结构 |
第二章 相关理论基础及开发工具 |
2.1 机器学习理论 |
2.1.1 机器学习方法 |
2.1.2 过拟合与欠拟合 |
2.1.3 超参数与验证集 |
2.1.4 优化算法 |
2.1.5 学习方式 |
2.2 卷积神经网络 |
2.3 反向传播 |
2.4 深度学习框架 |
第三章 数据集合构建 |
3.1 双孢菇目标检测图像数据集合构建 |
3.1.1 光学系统 |
3.1.2 数据采集与整理 |
3.1.3 数据标注 |
3.1.4 数据增广 |
3.2 双孢菇品质分级图像数据集合构建 |
3.3 品质分级算法泛化能力验证数据集合构建 |
3.3.1 光学系统 |
3.3.2 数据采集 |
3.3.3 数据预处理 |
第四章 基于深度卷积神经网络的双孢菇目标检测 |
4.1 单模态双孢菇目标检测 |
4.1.1 基于CenterNet检测器的双孢菇检测 |
4.1.2 基于注意力融合检测器的双孢菇检测 |
4.2 多模态双孢菇目标检测 |
4.2.1 多模态注意力融合网络架构 |
4.2.2 网络训练 |
4.3 实验结果对比分析 |
第五章 基于轻量级神经网络的双孢菇品质分级 |
5.1 卷积运算计算量与参数量 |
5.2 压缩模块 |
5.3 轻量级神经网络LightNet |
5.4 网络训练 |
5.5 实验结果对比分析 |
5.6 泛化能力测试 |
第六章 双孢菇采摘机器人视觉系统原型 |
6.1 系统总体设计 |
6.2 系统模块设计 |
6.3 目标三维空间定位设计与实现 |
6.4 采摘路径规划方法设计与实现 |
6.4.1 多区域采摘路径规划方法 |
6.4.2 行顺序采摘路径规划方法 |
6.5 系统集成与测试 |
6.5.1 边缘计算平台对比分析 |
6.5.2 系统环境配置 |
6.5.3 系统集成 |
6.5.4 系统测试 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
致谢 |
作者简历 |
(4)智能化工业机器人视觉系统关键技术研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 工业机器人视觉系统 |
1.2.1 图像采集单元 |
1.2.2 信息处理单元 |
1.2.3 执行单元 |
1.3 工业机器人视觉系统应用现状分析 |
1.3.1 工业机器人视觉系统应用分析 |
1.3.2 国外机器人视觉系统研究现状 |
1.3.3 国内机器人视觉系统研究现状 |
1.4 论文结构与研究内容 |
1.4.1 课题来源 |
1.4.2 论文主要研究内容 |
1.4.3 论文章节安排 |
1.5 本章小结 |
第2章 视觉系统成像原理 |
2.1 研究背景 |
2.2 相机成像模型 |
2.2.1 成像过程建模 |
2.2.2 投影空间与齐次坐标 |
2.2.3 相机的内参与外参 |
2.3 相机畸变模型 |
2.3.1 径向畸变 |
2.3.2 切向畸变 |
2.3.3 畸变校正 |
2.4 相机标定 |
2.4.1 相机标定方法介绍 |
2.4.2 相机参数求解过程 |
2.5 参数优化 |
2.6 实验结果与分析 |
2.7 本章小结 |
第3章 基于2D机器视觉的并联机器人分拣系统 |
3.1 研究背景 |
3.2 分拣系统硬件组成 |
3.3 手眼关系变换 |
3.3.1 建立用户坐标系 |
3.3.2 目标重复判定 |
3.4 目标检测 |
3.4.1 图像预处理 |
3.4.2 特征提取 |
3.4.3 基于边缘质心距离的模板匹配方法 |
3.4.4 目标位姿 |
3.5 机器人目标抓取策略 |
3.5.1 数据通信格式设计 |
3.5.2 分拣程序流程设计 |
3.6 实验结果及分析 |
3.6.1 边缘检测结果分析 |
3.6.2 分拣结果分析 |
3.7 本章小结 |
第4章 基于2.5D视觉引导的机器人定位系统 |
4.1 研究背景 |
4.2 试验平台设计流程 |
4.2.1 平台硬件组成 |
4.2.2 试验平台工作流程 |
4.3 搭建2.5D视觉系统 |
4.4 实例目标检测 |
4.4.1 特征点的提取与表达 |
4.4.2 特征匹配差异分析 |
4.4.3 目标显着性区域划分 |
4.4.4 基于区域分布差异的特征匹配 |
4.5 机器人手眼关系模型 |
4.6 实验结果与分析 |
4.6.1 实例目标检测实验 |
4.6.2 机器人手眼标定实验 |
4.6.3 整体试验流程 |
4.7 本章小结 |
第5章 基于双目视觉系统的机器人3D抓取应用 |
5.1 研究背景 |
5.2 实验平台组成 |
5.3 双目立体视觉原理 |
5.3.1 视差深度原理 |
5.3.2 对极几何模型 |
5.3.3 立体校正 |
5.4 目标六自由度位姿估计 |
5.4.1 点对特征匹配 |
5.4.2 点云处理 |
5.5 机器人抓取实验 |
5.6 本章小结 |
第6章 结束语 |
6.1 论文工作总结 |
6.2 论文创新点 |
6.3 研究展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(5)基于机器视觉的熔体直纺长丝断头检测系统研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 课题的背景及研究意义 |
1.1.1 课题的背景介绍 |
1.1.2 课题的研究意义 |
1.2 课题国内外研究现状 |
1.2.1 织物断头检测系统研究现状 |
1.2.2 机器视觉断头检测研究现状 |
1.3 本文主要研究内容 |
1.4 本文的章节安排 |
第二章 熔体直纺长丝断头视觉检测装置方案设计 |
2.1 熔体直纺长丝断头视觉检测装置整体设计要求 |
2.1.1 视觉检测装置功能要求 |
2.1.2 视觉检测系统设计要求 |
2.2 熔体直纺长丝断头视觉检测难点及解决方案 |
2.2.1 熔体直纺长丝断头视觉检测难点 |
2.2.2 双摄像头结构方案 |
2.2.3 双摄像头结构方案的熔体直纺长丝断头检测流程 |
2.3 本章小结 |
第三章 熔体直纺长丝断头视觉检测装置硬件选型 |
3.1 长丝视觉检测系统硬件组态 |
3.2 伺服驱动模块硬件选型 |
3.3 工业相机选型 |
3.4 光学镜头选型 |
3.5 照明系统设计 |
3.5.1 光源的选择 |
3.5.2 照明方式的选择 |
3.6 本章小结 |
第四章 基于霍夫变换和RBF神经网络的长丝断头检测和分类 |
4.1 熔体直纺长丝断头成因及表征 |
4.2 长丝图像预处理 |
4.2.1 图像分块筛选 |
4.2.2 图像灰度化 |
4.2.3 图像去噪 |
4.3 熔体直纺长丝图像分割 |
4.3.1 基于图像灰度变化特性的阈值分割 |
4.3.2 基于霍夫变换的长丝主干与断头形状分割 |
4.4 基于RBF神经网络的长丝断头检测和分类 |
4.4.1 形状特征参数提取 |
4.4.2 径向基函数神经网络简介 |
4.4.3 径向基函数神经网络分类原理 |
4.5 试验数据分析 |
4.5.1 小波层数及阈值选择 |
4.5.2 基于长丝图像灰度变化特性的阈值选择 |
4.5.3 霍夫变换参数分析 |
4.5.4 图像处理效果图 |
4.5.5 RBF神经网络优化与预测 |
4.5.6 熔体直纺长丝断头识别算法效率与稳定性 |
4.6 本章小结 |
第五章 基于模板匹配算法和K-means聚类算法的长丝挂钩定位 |
5.1 图像匹配原理介绍 |
5.2 K-means聚类算法介绍 |
5.2.1 聚类算法原理 |
5.2.2 K-means聚类算法原理 |
5.2.3 K-means算法流程 |
5.3 实验结果分析 |
5.3.1 模板的选取 |
5.3.2 基于K-means聚类算法的挂钩数统计 |
5.3.3 基于K-means聚类算法的挂钩坐标计算 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 未来展望 |
参考文献 |
攻读学位期间的研究成果 |
致谢 |
(6)日用陶瓷多类型多目标识别与双目定位研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 引言 |
1.1 研究的背景与意义 |
1.2 国内外研究现状分析 |
1.2.1 机器视觉概述 |
1.2.2 视觉定位应用现状及分析 |
1.2.3 2D视觉到 3D视觉应用现状及分析 |
1.2.4 目标检测算法发展现状及分析 |
1.2.5 发展趋势 |
1.3 研究技术路线及章节安排 |
1.4 本章小结 |
第2章 面向日用陶瓷类型识别的YOLOV3网络模型研究 |
2.1 引言 |
2.2 日用陶瓷的分类 |
2.3 YOLO系列目标检测网络模型 |
2.3.1 YOLOv1 |
2.3.2 YOLOv2 |
2.3.3 YOLOv3 |
2.4 数据集制备 |
2.4.1 实验数据的采集 |
2.4.2 数据增强 |
2.4.3 数据集准备 |
2.5 基于改进YOLOv3的日用陶瓷类型目标检测算法 |
2.6 模型性能评价指标和实验结果分析 |
2.6.1 模型测试与性能对比 |
2.6.2 实验结果分析 |
2.7 本章小结 |
第3章 面向日用陶瓷类型识别的网络模型轻量化研究 |
3.1 引言 |
3.2 轻量化网络模型MobileNet系列 |
3.2.1 MobileNet v1 |
3.2.2 MobileNet v2 |
3.2.3 MobileNet v3 |
3.3 基于MobileNet v3网络改进的YOLOv3算法设计 |
3.4 基于K-means算法日用陶瓷类型目标的anchor box聚类 |
3.4.1 K-means聚类算法 |
3.4.2 Anchor box聚类实验结果 |
3.5 模型的训练与性能评价 |
3.6 本章小结 |
第4章 双目立体视觉系统标定 |
4.1 引言 |
4.2 构建双目立体视觉系统 |
4.3 双目立体标定 |
4.4 双目立体相机标定实验及结果分析 |
4.5 本章小结 |
第5章 日用陶瓷的双目立体匹配与三维定位 |
5.1 引言 |
5.2 立体匹配原理 |
5.2.1 立体匹配算法分类 |
5.2.2 匹配基元与特征参数的选择 |
5.2.3 立体匹配相似性评判标准 |
5.3 基于SGBM算法的立体匹配 |
5.3.1 SGBM算法 |
5.3.2 SGBM算法匹配实验 |
5.4 双目定位原理 |
5.5 日用陶瓷三维定位实验及结果分析 |
5.6 本章小结 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
附录A:攻读硕士学位期间从事的科研项目及取得的成果 |
(7)基于机器视觉的核废物分拣方法研究(论文提纲范文)
摘要 |
abstract |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 核废物处置及分拣技术现状 |
1.2.2 基于深度学习的目标检测研究现状 |
1.2.3 基于深度学习的抓取位姿估计研究现状 |
1.3 课题研究内容及关键点 |
1.3.1 课题研究内容 |
1.3.2 课题研究关键点 |
1.4 文章结构 |
1.5 本章小结 |
2 机器人分拣系统框架 |
2.1 引言 |
2.2 分拣系统整体框架 |
2.3 分拣系统硬件设备 |
2.3.1 Universal Robot5 机械臂 |
2.3.2 Inter Realsense深度相机 |
2.4 分拣系统手眼标定模型 |
2.4.1 Realsense相机标定 |
2.4.2 机器人的手眼标定 |
2.5 本章小结 |
3 基于多尺度感受野的目标检测算法 |
3.1 引言 |
3.2 目标检测算法 |
3.2.1 Retina Net介绍 |
3.2.2 多尺度感受野模块 |
3.2.3 增加多尺度感受野的目标检测网络 |
3.3 网络训练及实验结果分析 |
3.3.1 数据集及预处理 |
3.3.2 网络训练 |
3.3.3 评价指标 |
3.3.4 实验结果及分析 |
3.4 本章小结 |
4 基于多尺度特征融合的抓取位姿估计 |
4.1 引言 |
4.2 抓取位姿 |
4.3 抓取网络介绍 |
4.3.1 Feature Pyramid Networks(FPN) |
4.3.2 抓取建议网络(GPN) |
4.3.3 抓取检测 |
4.4 模型训练及实验结果分析 |
4.4.1 数据集及预处理 |
4.4.2 模型训练 |
4.4.3 评价标准 |
4.4.4 实验结果及分析 |
4.5 本章小结 |
5 核废物分拣系统模拟实验与分析 |
5.1 引言 |
5.2 实验平台搭建 |
5.2.1 硬件平台 |
5.2.2 软件系统框架 |
5.3 实验设计 |
5.3.1 分拣实验与分析 |
5.3.2 抓取实验与分析 |
5.4 本章小结 |
6 总结与展望 |
致谢 |
参考文献 |
攻攻读学位期间的研究成果 |
(8)基于深度相机的汽车转向节位姿估计研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.2 相关领域研究现状 |
1.2.1 机器视觉研究现状 |
1.2.2 基于视觉的位姿估计现状 |
1.2.3 相机标定研究现状 |
1.3 课题方案内容和章节安排 |
第2章 转向节视觉估计系统与相机标定 |
2.1 引言 |
2.2 转向节视觉估计系统 |
2.3 RGBD相机 |
2.3.1 深度测量原理 |
2.3.2 成像模型 |
2.3.3 非畸变线性模型 |
2.4 相机标定 |
2.5 彩色图和深度图对齐 |
2.6 本章小结 |
第3章 转向节基准点定位 |
3.1 引言 |
3.2 图像预处理 |
3.2.1 图像滤波 |
3.2.2 图像二值化 |
3.2.3 腐蚀与膨胀 |
3.3 转向节区域轮廓提取 |
3.3.1 边缘检测处理 |
3.3.2 圆形轮廓检测 |
3.4 相机坐标系下抓取点坐标确定 |
3.5 本章小结 |
第4章 转向节姿态估计 |
4.1 引言 |
4.2 点云预处理 |
4.2.1 下采样 |
4.2.2 传送带平面移除获取转向节点云 |
4.2.3 离群点移除 |
4.2.4 转向节模板点云构建 |
4.2.5 法向量计算以及可视化 |
4.3 基于特征描述子的转向节姿态初步估计 |
4.3.1 转向节初步姿态估计策略 |
4.3.2 特征点选择 |
4.3.3 FPFH特征描述子 |
4.3.4 初始姿态估计 |
4.4 基于NDT的转向节姿态精准估计 |
4.4.1 NDT算法概述 |
4.4.2 NDT算法验证 |
4.5 四元数与物体姿态估计 |
4.6 本章小结 |
第5章 转向节位姿估计软件开发 |
5.1 引言 |
5.2 转向节视觉估计系统软件开发 |
5.2.1 软件开发环境 |
5.2.2 软件系统规划 |
5.2.3 系统界面 |
5.3 实验结果验证 |
5.4 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间承担的科研任务与主要成果 |
致谢 |
(9)基于深度学习的人数统计算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 国内外研究现状 |
1.2.1 国内研究现状 |
1.2.2 国外研究现状 |
1.3 论文主要研究内容 |
1.4 本论文组织结构 |
第二章 多模图像实验平台搭建与相关技术 |
2.1 多模图像实验平台设计 |
2.1.1 多模图像实验平台整体方案设计 |
2.1.2 硬件设备组成 |
2.2 多模图像数据处理相关技术 |
2.2.1 主动红外双目立体视觉测距原理 |
2.2.2 多模图像数据对齐算法原理 |
2.3 本章小结 |
第三章 基于深度图像信息的人数统计错检去除方法 |
3.1 人数统计中的目标错检问题分析 |
3.2 基于深度图像信息的背景建模方法 |
3.2.1 初始化背景模型 |
3.2.2 背景模型的更新方案 |
3.3 基于深度图像信息的人数统计错检结果去除方法 |
3.3.1 前景目标检测方法 |
3.3.2 错检结果判断方法 |
3.4 实验与分析 |
3.5 本章小结 |
第四章 基于多模图像的RetinaNet网络改进研究 |
4.1 Retina Face算法原理 |
4.1.1 残差网络结构 |
4.1.2 多尺度特征网络结构 |
4.2 基于多模图像融合的深度网络模型设计 |
4.2.1 针对嵌入式设备的RetinaNet网络改进方法 |
4.2.2 多模图像特征融合的深度网络模型设计 |
4.2.3 多任务联合损失函数改进 |
4.3 模型训练与性能分析 |
4.3.1 评估标准 |
4.3.2 常用数据集 |
4.3.3 网络模型训练 |
4.3.4 性能分析 |
4.4 本章小结 |
第五章 便携式人数统计系统设计 |
5.1 系统整体方案设计 |
5.1.1 系统整体架构设计 |
5.1.2 系统开发与运行环境 |
5.2 系统软件功能设计与实现 |
5.2.1 多模图像数据采集功能实现 |
5.2.2 基于多模图像的人数统计功能实现 |
5.3 系统部署与运行分析 |
5.3.1 系统部署优化 |
5.3.2 系统运行分析 |
5.4 本章小结 |
第六章 全文总结与工作展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
攻读硕士期间取得的成果 |
(10)欠驱动机械臂末端视觉目标跟踪技术及实验验证(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与研究意义 |
1.2 国内外研究现状 |
1.2.1 视觉机器人系统 |
1.2.2 机器视觉 |
1.2.3 视觉伺服控制 |
1.3 研究内容与研究关键点 |
1.4 结构安排 |
第二章 机械臂末端视觉目标跟踪系统设计 |
2.1 系统总体设计 |
2.1.1 系统模块组成 |
2.1.2 系统模块设计 |
2.2 研究平台构建 |
2.2.1 系统流程 |
2.2.2 机械臂平台及运动模型 |
2.3 欠驱动机械臂平台控制模块 |
2.3.1 欠驱动机械臂平台模型反馈线性化 |
2.3.2 鲁棒控制器 |
2.4 本章小结 |
第三章 机械臂末端视觉感知 |
3.1 视觉感知模块 |
3.1.1 图像处理流程 |
3.1.2 复杂环境成像特性 |
3.2 目标检测算法 |
3.2.1 图像预处理 |
3.2.2 基于传统滤波方法的目标检测 |
3.2.3 基于卷积神经网络的目标检测 |
3.2.4 算法结果与分析 |
3.3 特征提取 |
3.3.1 尺度不变性特征 |
3.3.2 特征点更新策略 |
3.4 本章小结 |
第四章 机械臂末端目标跟踪 |
4.1 目标跟踪模块 |
4.1.1 相机成像模型 |
4.1.2 视觉伺服流程 |
4.1.3 空间位姿描述 |
4.2 基于位置的视觉伺服 |
4.2.1 目标深度估计 |
4.2.2 控制期望求解 |
4.3 实验与误差分析 |
4.4 本章小结 |
第五章 基于图像的视觉伺服 |
5.1 基于图像的视觉伺服 |
5.1.1 图像雅可比矩阵 |
5.1.2 控制期望求解 |
5.2 运动目标跟踪与特征补偿 |
5.2.1 运动目标跟踪 |
5.2.2 系统时间延迟的特征补偿 |
5.2.3 欠驱动系统运动耦合的特征补偿 |
5.3 仿真实验及结果分析 |
5.4 实验及结果分析 |
5.5 本章小结 |
第六章 总结及展望 |
6.1 全文总结 |
6.2 工作展望 |
致谢 |
参考文献 |
四、采用神经网络算法的机器视觉成像器(论文参考文献)
- [1]面向建筑设施的履带式机器人自动化巡检关键技术研究[D]. 陈晴. 浙江大学, 2021(02)
- [2]基于多源异构视觉的变电站机器人巡检技术研究[D]. 梁松伟. 浙江大学, 2021(02)
- [3]基于深度学习的双孢菇采摘机器人视觉系统研究[D]. 曹景军. 中国农业科学院, 2021(01)
- [4]智能化工业机器人视觉系统关键技术研究[D]. 王诗宇. 中国科学院大学(中国科学院沈阳计算技术研究所), 2021
- [5]基于机器视觉的熔体直纺长丝断头检测系统研究[D]. 陈思俊. 东华大学, 2021(01)
- [6]日用陶瓷多类型多目标识别与双目定位研究[D]. 曹旭明. 景德镇陶瓷大学, 2021(12)
- [7]基于机器视觉的核废物分拣方法研究[D]. 肖贤鹏. 西南科技大学, 2021(08)
- [8]基于深度相机的汽车转向节位姿估计研究[D]. 刘学超. 燕山大学, 2021(01)
- [9]基于深度学习的人数统计算法研究[D]. 郑翔. 电子科技大学, 2021(01)
- [10]欠驱动机械臂末端视觉目标跟踪技术及实验验证[D]. 蒲屹宇. 电子科技大学, 2021(01)