-
基于卷积神经网络的X线片下肢关节角度识别算法
编辑人员丨1周前
提出一种基于卷积神经网络的X线片下肢关节角度识别算法,首先在X线片中使用Yolov5目标检测模型来识别特定类别的感兴趣区域,并使用U-Net模型进行热图回归来识别关键特征点,最后进行下肢关节角度的计算.研究结果表明,本文提出的算法相比于之前的算法精度更高,结果准确可靠,为临床研究和实践提供参考.
...不再出现此类内容
编辑人员丨1周前
-
基于改进YOLOv7模型的肺结节检测
编辑人员丨1周前
目的:设计一种基于改进YOLOv7模型的肺结节检测算法。方法:首先,在PAFPN结构中,引入轻量化上采样算子CARAFE,以提高肺结节检测精度。然后添加一个增强型小尺度检测层,增强对于小目标肺结节的检测性能,同时可减少训练的参数量,并降低模型复杂程度。在保证各项参数指标不变的情况下,对YOLOv5原模型算法和添加增强型小尺度检测层的YOLOv5模型算法、YOLOv7原模型算法和改进后YOLOv7模型算法进行消融实验;对改进点训练集总损失进行比较;用YOLOv7原模型算法和改进后YOLOv7模型算法对2张测试集图片进行推理,将其与近年来其他经典的肺结节检测算法Mask R-CNN、YOLOv3、YOLOv5s和YOLOv7对2张测试集图片进行比较。结果:添加增强型小尺度检测层的YOLOv5模型算法精度比YOLOv5原模型算法提升了1.3%,召回率提高了3.5%,平均精度(mAP)上升了3.1%,参数量减少了25.3%,网络的复杂程度也有所减少。改进后YOLOv7模型算法mAP提高1.8%,参数量减少28.3%,模型复杂程度下降5 G。添加增强型小尺度检测层与替换特诊融合网络为轻量化上采样算子CARAFE算法在训练过程中的总损失最小。YOLOv7原模型算法精度较高,但是仍然出现了漏检与假阳性的情况,与预测图片1比较,YOLOv7原模型出现了漏检的情况;与预测图片2比较,YOLOv7原模型出现了假阳性的情况。而改进后YOLOv7模型对漏检情况和假阳性均得到了很好的改善;与经典模型算法比较,改进后YOLOv7模型算法的精度、召回率和mAP最高,分别为91.7%、89.1%、93.5%。结论:改进YOLOv7模型具有更强的特征表达能力,参数量更少,能够有效提高肺结节的检测精度。
...不再出现此类内容
编辑人员丨1周前
-
深度学习技术识别腹腔镜手术视频中肾动脉的可行性
编辑人员丨1周前
目的:探讨深度学习技术在经腹膜后入路腹腔镜肾脏手术视频中对肾动脉识别的可行性。方法:回顾性分析2020年1月至2021年7月北京协和医院实施的87例腹腔镜经腹膜后入路肾脏手术视频资料,包括根治性肾切除术、肾部分切除术、半尿路切除术。由2名泌尿外科医生筛选出包含肾动脉的视频片段,经过抽帧、标注、审核、校对后,用随机数字表法按4∶1比例将标注目标分为训练集和测试集。训练集用于训练神经网络模型,测试集用于测试不同难度场景下神经网络识别肾动脉的能力,统一输送至YOLOv3卷积神经网络模型进行训练。测试集根据2名高年资医生意见,按肾动脉与周围组织的区分度分为高、中、低辨认度。高辨认度即肾动脉干净,暴露面积大;中辨认度为肾动脉有一定程度浸血,暴露面积中等;低辨认度为肾动脉暴露面积小,常位于镜头边缘,浸血严重,可能存在镜头模糊。标注人员在手术视频中逐帧标注肾动脉真值框。所有图像经过归一化、预处理后输入神经网络模型进行训练。神经网络输出肾动脉预测框,与真值框重合的交并比(IOU)高于设定的阈值则判定为预测正确。记录测试集神经网络测试结果,根据IOU计算敏感性、精确率。结果:本研究87个视频共提取5 457帧图像,其中49个视频片段共4 490个目标为训练集,38个视频片段共1 135个目标为测试集。训练集中13个视频1 149个目标为高辨认度,17个视频1 891个目标为中辨认度,19个视频1 450个目标为低辨认度。测试集中,9个视频267个目标为高辨认度,11个视频519个目标为中辨认度,18个视频349个目标为低辨认度。测试集IOU阈值为0.1时,敏感性和精确率分别为52.78%和82.50%;IOU阈值为0.5时,敏感性和精确率分别为37.80%和59.10%。IOU阈值为0.1时,高、中、低辨认度组的敏感性和精确率分别为89.14%和87.82%、45.86%和78.03%、32.95%和76.67%。实时手术视频中YOLOv3算法的帧率≥15帧/秒。神经网络对于腹腔镜肾脏手术视频中肾动脉识别的误检率和漏检率分别为47.22%和17.49%(IOU=0.1)。误检原因主要为相似组织、反光导致的误识别,漏检主要原因为存在图像模糊、浸血、暗光、筋膜干扰、器械遮挡等。结论:基于深度学习的肾动脉识别技术是可行的,或可协助术者在术中快速识别并保护肾动脉,提高手术安全性。
...不再出现此类内容
编辑人员丨1周前
-
基于人工智能深度学习算法辅助诊断早期ESCC的研究
编辑人员丨2024/3/30
目的 探讨基于人工智能(artificial intelligence,AI)深度学习算法的内镜识别系统在胃镜诊疗过程中对早期ESCC检出率的研究.方法 选取中国人民解放军联勤保障部队第九八八医院、中国人民解放军联勤保障部队第九八四医院及中国人民解放军联勤保障部队第九八〇医院三个消化内镜中心 2018 年 6 月至 2020 年 6 月早期ESCC、ESCC、食管隆起性病变以及食管憩室的白光图像、碘染色图像.通过训练和验证不同的目标检测模型和实例分割模型,最终选取表现最优的目标检测模型Yolov 5 和实例分割模型Yolact++共同构建 AI"嵌合模型",评估该模型诊断早期 ESCC的性能.结果 AI"嵌合模型"对早期 ESCC诊断的敏感度为 95.60%,特异度为 91.60%,准确率为 90.70%,均优于单模型.结论 本研究构建的 AI"嵌合模型"可显著提高早期 ESCC的检出率.
...不再出现此类内容
编辑人员丨2024/3/30
-
老年患者跌倒检测系统的设计与实现
编辑人员丨2024/3/23
目的:设计老年患者跌倒检测系统用以解决老年患者因意外跌倒而未能被及时发现的问题,提高医疗护理效率.方法:基于实时流传输协议(RTSP),结合YOLOv5和Kalman算法,采用Vue及Flask等技术设计老年患者跌倒检测系统,搭建可视化后台系统管理,通过多路视频流综合处理为医疗工作者提供统一管理平台,实现人体跌倒行为的自主检测与报警.选取2020-2022年在空军军医大学西京医院进行跌倒检测的30名健康志愿者,根据模拟行为类别将其分为正常行走组、蹲起组和跌倒组,每组10名,采用检测准确率和检测速度两项评价指标对跌倒检测性能进行评估,验证判断老年患者跌倒检测系统能否达到及时准确的跌倒检测与报警要求.结果:正常行走组、蹲起组和跌倒组的总体跌倒检测速率可达29帧/s,准确率可达95.24%,系统能够及时响应跌倒警报.结论:老年患者跌倒检测系统可辅助医护工作者及时发现并处理跌倒行为的发生,提升老年患者跌倒检测效率,能够满足老年患者跌倒行为的实时检测和报警.
...不再出现此类内容
编辑人员丨2024/3/23
-
基于改进YOLOv5s模型的车辆及行人检测方法
编辑人员丨2024/3/16
针对道路交通环境中车辆及行人目标较小或被遮挡造成的检测精度低以及误检、漏检问题,提出一种基于改进YOLOv5s模型的车辆及行人目标检测方法.针对小目标和遮挡目标,引入SIoU边界框损失函数,增加小目标检测层,增强对小尺度特征的获取;改进特征金字塔结构,增加横向特征图传递,并使用CSP stage替换C3_F特征提取网络,使其获得更多的语义信息和图形信息;改进后处理NMS算法,优化冗余边界框剔除方法,筛选出高质量检测结果.试验结果表明:改进YOLOv5s模型算法的Precision、Recall、mAP@0.5和mAP@0.5:0.95指标均优于Faster-RCNN、YOLOv3-tiny和YOLOv8s算法,与原YOLOv5s模型算法相比Precision下降了0.4%,但Recall、mAP@0.5和mAP@0.5:0.95提高了3.4%、2.1%和6.0%,分别达到了86.1%、92.9%和70.0%,对小目标和遮挡目标的检测效果明显提高,证明此改进方法有效解决了对小目标和遮挡目标检测精度低以及误检、漏检问题.
...不再出现此类内容
编辑人员丨2024/3/16
-
基于改进YOLOv5s的疲劳驾驶检测
编辑人员丨2024/3/16
针对驾驶员疲劳驾驶检测困难及检测精度低等问题,提出基于改进YOLOv5s的疲劳驾驶检测方案,以提高终端的边缘智能识别能力.以YOLOv5s为基础框架,通过改进损失函数,提高模型精度与鲁棒性;通过添加注意力机制模块,提高算法的特征提取能力和检测精度.开展基于改进EIoU损失函数和添加CBAM注意力模块的消融试验.试验结果表明:基于改进YOLOv5s的疲劳驾驶检测准确率和召回率分别为95.2%和95.0%,相较于原始YOLOv5s模型,闭眼检测精度提高了3.6%,哈欠检测精度提高了3.8%.
...不再出现此类内容
编辑人员丨2024/3/16
-
基于改进YOLOv5s的大熊猫姿态识别
编辑人员丨2023/10/28
针对大熊猫Ailuropoda melanoleuca姿态识别中,目标存在部分遮挡及背景相似造成识别难度大等问题,本研究对传统YOLOv5s动物姿态识别算法提出3点改进:主干网络引入坐标注意力改进C3模块,使目标定位更加精确;在颈部网络特征融合时,引入BiFPN结构,加强对有效特征的权重比例;在颈部网络特征输出时,采用可变形卷积代替传统卷积,提高对不规则目标的识别.对自制6类姿态数据集进行性能评估后表明,相对传统YOLOv5s模型,改进方法的mAP(0.5)/mAP(0.5∶0.95)达到89.26%/62.09%,提高了3.12%/3.96%,模型参数减少8.6%.本文提出的方法能够提高大熊猫姿态识别精度,为后续行为分析、饲养管理提供技术参考.
...不再出现此类内容
编辑人员丨2023/10/28
-
基于多色彩空间的YOLOv5松枯死树检测方法
编辑人员丨2023/10/21
[目的]针对在松枯死树监测实践中,从无人机航拍RGB影像中自动识别松枯死树漏检率高的问题,提出了一种生产应用场景下基于多色彩空间的YOLOv5 松枯死树高精度自动识别新方法.[方法]利用无人机采集大面积松材线虫病发生林分的RGB图像,用Pix4Dmapper软件拼接,用LabelImg开源软件建立VOC格式的松枯死树数据集,分别用Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、SSD和EfficientDet等 6 种基于深度学习的目标检测算法对数据集进行训练和测试,以精确率、召回率、平均准确率以及F1分数作为评价指标筛选出最优目标检测算法;然后将采集的RGB图像转换成LAB和HSV色彩空间图像,再将这 3 个色彩空间的图像分别用最优目标检测算法进行训练,得到目标在每个色彩空间的边界框,使用非极大值抑制算法对这些边界框进行处理,得到最优边界框实现松枯死树自动识别.[结果]6 种算法均取得良好效果,其中YOLOv5模型为最优算法,其精准率、平均查准率和F1 分数在 6 种算法中均最高,分别达到 97.58%、82.40%和 0.85.通过 3 个色彩空间融合后,反映漏检情况的召回率由 74.54%提高到 98.99%,平均准确率提升至 98.39%.[结论]基于多色彩空间的YOLOv5 模型能够显著提高从无人机航拍RGB影像中检测松枯死树的精度,为松枯死树监测提供了有力工具,也有助于松材线虫病的防治.
...不再出现此类内容
编辑人员丨2023/10/21
-
基于YOLOv5的眼前节参数实时测量算法研究
编辑人员丨2023/9/16
目的:针对已有算法无法在超声生物显微镜(ultrasonic biological microscopy,UBM)图像中同时测量多个眼前节生理参数的问题,提出一种基于YOLOv5的眼前节参数实时测量算法.方法:先使用YOLOv5算法在UBM图像中定位出中央角膜上皮层、中央角膜内皮、两侧前房角、两侧睫状沟、瞳孔两端、瞳孔中央及晶状体后囊,再结合先验知识将其排序并筛选出合格图像后,计算中央角膜厚度、前房深度、晶状体厚度、睫状沟间距、前房角间距及瞳孔直径等眼前节生理参数.使用欧氏距离之差的绝对值评估该算法对眼前节生理参数的测量误差.结果:该算法对眼前节关键点的定位误差为(66.27±66.25)μm,预测中央角膜厚度的相对误差为9.61%,预测其他眼前节参数的相对误差均在3%以下.在配备Ryzen5 4600U处理器的便携式计算机上检测一张UBM图片仅需要140ms.结论:该算法准确性高、实时性强、对硬件要求低,能够精确且快速地测量多个眼前节生理参数.
...不再出现此类内容
编辑人员丨2023/9/16
