硕士论文网/国内首批论文服务机构

当前位置:硕士论文网首页 > 计算机论文 > 计算机视觉角度下的施工人员安全状态监测技术研究

计算机视觉角度下的施工人员安全状态监测技术研究

时间:2020-09-27 10:35 | 栏目:计算机论文 | 浏览:

硕士论文网第2020-09-27期,本期硕士论文写作指导老师为大家分享一篇计算机论文文章《计算机视觉角度下的施工人员安全状态监测技术研究》,供大家在写论文时进行参考。
  本文是一篇计算机硕士论文,本章首先研究了人体姿态估计的算法 OpenPose,并用 caffe 搭建了多人二维人体姿态检测模型。在本文的施工现场测试集中测试,得到二维人体姿态骨架。其次,将 YOLOv3 密集连接模型输出的施工人员与安全帽两类目标边框与人体姿态估计 OpenPose 模型输出的二维人体姿态两部分信息相整合,首先将人物边框与对应的人体姿态相匹配,随后遍历人物边框,根据空间关系将安全帽与人体配对,并根据安全帽与人体面部中心点的空间位置关系判断安全帽是否被正确佩戴。

第 1 章 绪 论

1.1 课题背景
  由于土木工程施工生产过程中危险源众多,施工环境差,工期紧,施工人员的安全文明以及自我保护意识差[1],并且管理部门对施工现场安全文明生产监督力度不够,造成了施工生产活动安全漏洞众多。2005 年至 2014 年美国有 9836 人死于建筑施工安全事故,这比美国过去十年死于战争以及军事行动的死亡人数(2001~2014,死亡人数为 6830)还要多 44% [2]。加拿大从 2008 年到 2010 年建筑行业共发生 700 人死亡,占所有工作场所死亡人数的近 23.3% [3]。我国土木工程安全文明施工问题更为突出,每年全国各地都会频繁发生土木生产施工安全性事故。2003 年至 2017 年,中国建筑行业死亡人数为 13280,每年因建筑安全事故造成的直接经济损失超过百亿,严重制约了建筑行业可持续发展并且给社会造成严重的不良影响,安全问题极为严重。在我国引起施工生产安全事故的原因主要存在于以下几个方面:建筑市场管理制度不健全;专业培训机制不健全,农民工技能不过硬,安全防范意识不够强;施工生产企业针对生产活动中出现的意外风险应对能力差 [4];而最主要的原因是企业的安全文明施工监管力度不够,存在管理盲区。根据调查统计显示,施工安全事故造成的死亡原因主要包括坠落、滑到、被物体撞击、触电等。其中施工人员头部受高处坠落物撞击以及工人从高处坠落导致头部撞击硬地板是引起施工安全事故死亡的主要因素。这类因素主要会造成工人头部与颈部创伤,并且其在各类安全事故中是最为严重甚至致命的。美国安全局统计显示 2003 年至 2010 年期间美国有 2210 名建筑工人死于创伤性脑损伤,占施工事故死亡总人数的 24% [5-6]。由于安全帽能有效地避免和缓解施工作业人员在生产活动中遭受坠落物对头部的损伤,可以显著缓冲物理撞击,因此它是一种安全文明施工必备的防护用品。土木工程施工现场作业人员佩戴安全帽是一种必要的安全防范措施,其能够有效地保正施工人员的生命安全,因此在施工现场检测施工人员是否佩戴安全帽具有重要意义。然而,在施工生产活动中,由于工人安全防范意识淡薄,时常出现施工人员未按照生产规范佩戴安全帽,形成巨大的安全隐患。因此,及时保障施工现场安全帽的有效佩戴,对减少安全事故中的人员伤亡具有重要意义。
1.2 安全帽佩戴监测现状
  自动化的监测施工人员是否佩戴安全帽方法有基于传感器的接触式监测和基于监控视频图像的非接触式监测。基于传感器的接触式监测的研究集中在远程定位与跟踪技术,Kelm [20]等人设计了移动 RFID [21]门户检查工人的个人防护装备是否符合相应的规范。Teizer [22]等人提出了他们的关于利用极高频率的有源射频(RF)技术提高施工安全性的研究。Zhang [23]等人通过基于传感器,移动,Web 和云技术实现没有佩戴安全帽的实时报警,促进施工安全检查和监督。然而这些基于传感器的接触式监测,成本较大,并且人员佩戴起来不舒适,传感器容易被人头以外的物体欺骗。基于监控视频图像的非接触式监测,目前国内外许多学者已经进行了研究。胡恬等人通过 BP 神经网络与小波变化结合识别安全帽 [24];刘云波等人通过检测目标物体像素点颜色的规律识别安全帽的佩戴 [25]。Shrestha[26]等人使用边缘检测算法来识别人体头部区域内的安全帽的边缘。Chi 和 Caldas[27]通过背景差分法过滤掉固定的背景像素区域,从而将工程现场中移动的物体分类与识别。Park 和 Brilakis[28]提出了一种基于视觉的没有佩戴安全帽检测方法,该方法在每个视频帧中同时检测人体和安全帽,然后匹配检测到的人体区域和安全帽区域以检测有无佩戴安全帽情况。Li [29]等通过提取 HOG 特征和训练 SVM 对变电厂工人进行跟踪定位,再利用颜色特征来识别工人是否佩戴安全帽。然而由于建筑行业施工绝大多数是在夜里进行,图像整体色调偏暗,造成目标与背景区分度不高,人工提取特征过程变得极为复杂与耗时。并且基于 HOG 的方法只能在工人站立时检测出没有佩戴安全帽,因为检测模板仅在站立工作者的图像进行训练。早期的基于图像的安全帽佩戴检测方法主要使用传统图像处理和计算机视觉技术,使用如基于颜色的特征、方向梯度直方图特征(Histogram of Oriented Gradients,HOG)特征、圆形霍夫变换[30](Circle Hough Transform,CHT)等方法识别安全帽。这些传统方法依赖于提前裁剪出目标区域图像(即施工人员),并且在目标区域识别是否有安全帽这一判别标准无法判断施工人员是否已经佩戴安全帽,或者只是拿在手里或放置在旁边。
YOLO 网络结构

第 2 章 基于深度学习的施工人员安全帽佩戴检测方法

2.1 引言
  由于端到端的目标检测算法 YOLOv3 具有速度快,准确高的特点,是当前工业与学术界最为流行的目标检测算法。本章研究深度学习领域的目标检测算法YOLOv3,收集并制作了施工现场图片数据集,建立并训练了目标检测模型,通过该目标检测系统可以检测出监控视频图像序列中的施工人员与安全帽两类目标对象的位置。通过实验,在图片测试数据集中测试检测效果,并且计算出 mAP 与Recall 指标,评价模型的性能。
2.2 深度学习目标检测 YOLOv3 算法
  研究了目标检测算法 YOLOv3,YOLOv3 是在 YOLO 与 YOLOv2[51]的基础上作出的改进,在小目标检测的准确率是上进步明显。因此首先本文介绍一下 YOLO目标检测算法。YOLO 是一种端到端的目标检测算法,仅仅使用一个卷积神经网络就可以预测出目标对象的类别与位置。YOLO 借鉴的全卷积网络[52]的思想,首先将例如大小为 16×16 像素的图片,经过一系列的卷及操作,得到了 2×2 像素大小的特征图,由感受野可知 2×2 像素大小的特征图中的每一个元素对应着原图相应的区域。这也相当于将 14×14 像素的窗口从原图中左上角开始,步长为 2 开始滑动,最终产生 4 个方格。相比较滑动窗口算法[53]巨大的计算量,全卷积的思想只需要通过一次 CNN 计算就能够做到对窗口中所有子区域的分类预测。然而虽然全卷积算法能够减少滑动窗口算法的计算量,可是其针对的仅仅是一个特定步长与大小的窗口,远远达不到目标检测的目的。YOLO 算法解决了这个问题,它是将原始图片直接分割成互不重合的 S×S 个网格,如图 2-2 所示,然后通过一系列CNN 卷积操作提取出 S×S 像素的特征图,与全卷积的思想相同,特征图中的每个元素对应着原图的一个网格区域,如果原图中目标中心点在落在某个网格中,那么就由该网格对应的特征图中的元素来负责预测该目标的类别与位置信息,如图2-1 所示。
YOLO 算法基本思想[

第 3 章 基于改进 YOLOv3 模型的施工人员安全帽佩戴检测方法

3.1 引言
3.2 目标维度聚类
3.3 跨尺度检测改进
3.4 密集连接机制模型
3.5 实验结果及分析
3.6 本章小结

第 4 章 基于 Openpose 算法施工人员姿态估计辅助的安全帽佩戴检测方法

4.1 引言
4.2 OpenPose 算法原理
4.3 环境搭建及实验
4.4 目标检测与人体姿态估计结合
4.5 本章小结

结 论

  本文研究了基于计算机视觉的施工人员安全状态监测方法,通过施工现场视频监控数据,结合深度学习、目标检测算法和人体姿态估计算法,实现土木工程施工现场人员安全佩戴等安全检测。主要结论如下:
  (1)提出了将目标检测算法 YOLOv3 应用于检测施工人员是否佩戴安全帽的场景。研究了目标检测算法 YOLOv3,它是一种端到端的具有多尺度检测特征的目标检测方法,通过该目标检测系统可以检测出监控视频图像序列中的施工人员与安全帽两类目标对象的位置。收集并制作了施工现场数据集,建立并训练了YOLOv3 目标检测模型,将训练好的模型在测试集中测试,结果表明 mAP 与 Recall都超过了 90%,在安全帽这类小物体的平均准确率为 86.9%,在实验的计算机中平均检测一张图片耗时 49ms, 很好地达到了实时监控的要求。
  (2)为了提高安全帽小目标物体的检测效果,本章在目标维度聚类、多尺度检测、密集连接三个方面优化网络模型。分别将测试集中的施工现场图像输入给三种训练完成的神经网络,检测施工人员是否佩戴安全帽,实验结果表明:1)模型检测的准确率通过三方面的改进之后均有所提高,其中四尺度检测结构与密集连接结构的 mAP 与 Recall 均超过 94%,比 YOLOv3 聚类与 YOLOv3 两模型结构性能明显提高。2)改进的密集连接机制在不同工程场景下,针对 hat 类的小物体的检测性能的均有明显增强,并且在远景图片检测上 mAP 与 Recall 均超过 90%,表明模型在小物体的检测性能表现优异。
  (3)将人体姿态估计算法 OpenPose 应用在施工现场,识别并跟踪图像中的所有人体的姿态骨架,解决自动检测工人是否佩戴安全帽问题。测试结果表明:1)在人物的漏检率为 3.0%的基础上,系统自动检测没有佩戴安全帽的施工人员的精确率达到了 94.4%,召回率达到了 91.6%。测试结果表明该检测系统能很好并且灵活地检测施工人员是否已经佩戴安全帽。2)在干扰类测试集(将安全帽拿在手上或者放在边上的施工人员与佩戴安全帽的施工人员的图片单独取出)中,其中精确率为 90.2%与召回率为 86.8%,总体均超过 85%,表明该检测系统在安全帽处于特殊位置情况下,具有较好的灵活性。
  本文对施工人员是否佩戴安全帽的自动检测进行了实验研究,但目前仍然有许多问题值得深入探索,未来在以下几个方面进一步分析:
  (1)将人体姿态估计应用在自动检测施工人员是否佩戴安全帽上,初步取得了较好的效果。然而目前人体姿态估计模型检测时间相对较长,并且在遮挡问题上的姿态检测有待进一步研究。
  (2)本文研究的重点是自动检测施工人员是否佩戴安全帽,后期的触发报警系统,以及人机耦合方面有待进一步研究。

以上论文内容是由硕士论文网为您提供的关于《计算机视觉角度下的施工人员安全状态监测技术研究》的内容,如需查看更多硕士毕业论文范文,查找硕士论文、博士论文、研究生论文参考资料,欢迎访问硕士论文网计算机论文栏目。