-
烧烫伤创面深度智能检测模型P-YOLO的建立及测试效果
编辑人员丨4天前
目的:基于深度学习技术和计算机语言设计烧烫伤创面深度智能检测模型并予以测试,验证该模型对烧烫伤创面图像检测的有效性及准确性。方法:收集2022年1月至2024年2月在上海交通大学医学院附属瑞金医院烧伤整形科接受治疗且符合入选标准的烧烫伤患者伤后48 h内创面照片共492张,重置照片顺序并编号。由两名执业3年以上的副主任医师采用图像标注工具LabelMe对照片中的目标创面进行标记并判定其严重程度,严重程度分为Ⅰ度、Ⅱ度和Ⅲ度。采用图像处理技术扩充数据集至2 952张,按照7∶2∶1比例划分为训练集、验证集及测试集。在Python 3.10.0版本下,提出并构建基于深度学习的烧烫伤创面深度智能检测模型P-YOLO,通过多批次训练调整并优化网络参数。经过测试得到该模型在数据集上的各项指标参数,如查准率、召回率以及在不同交并比(IoU)下的平均精度均值等,根据实验结果绘制出相应的F1指数曲线和混淆矩阵。结果:(1)经测试,所设计的P-YOLO智能检测模型对Ⅰ度、Ⅱ度和Ⅲ度烧烫伤创面识别的查准率分别为0.962、0.931及0.886,召回率分别为0.849、0.828及0.857,F1指数分别为0.902、0.876及0.871。(2)混淆矩阵显示,P-YOLO模型检测Ⅰ度、Ⅱ度和Ⅲ度烧烫伤创面的准确度分别为0.86、0.87及0.91。(3)当IoU阈值为0.5时,P-YOLO模型检测Ⅰ度、Ⅱ度和Ⅲ度烧烫伤创面的平均精度均值为0.893、0.885及0.838。在所有类别创面中,P-YOLO模型检测的平均精度均值为0.872。(4)与Faster R-CNN、YOLOv5及YOLOv7检测模型相比,P-YOLO模型具有最高的平均精度均值,检测效果最优。结论:基于深度学习的智能检测模型P-YOLO整体检测准确率和可靠性较高,能够提高烧伤科医师对烧烫伤创面深度的诊断准确度和效率。
...不再出现此类内容
编辑人员丨4天前
-
计算机视觉人工智能技术在腹腔镜胃癌根治术中对器械和脏器的检测识别:一项多中心临床研究
编辑人员丨4天前
目的:探究计算机视觉人工智能技术在腹腔镜胃癌根治术场景中对器械和脏器检测识别的可行性和准确性。方法:收集国内4家大型三甲医院[解放军总医院第一医学中心(3份)、辽宁省肿瘤医院(2份)、江苏省人民医院溧阳分院(2份)、复旦大学附属肿瘤医院(1份)]共计8份完全腹腔镜远端胃癌根治术手术视频。使用PR软件每5~10 s进行抽帧转换为图帧,转换后进行人工去重,去除明显雷同图帧和模糊图帧以确保质量。转换并去重后,抽帧图像共3 369张,图像分辨率为1 920×1 080 PPI,用LabelMe实例分割图像;共计23个类别包括静脉、动脉、缝针、持针器、超声刀、吸引器、出血、结肠、钳子、胆囊、小纱布、Hem-o-lok夹、Hem-o-lok钳子、电钩、小肠、肝圆韧带、肝脏、网膜、胰腺、脾脏、吻合器、胃和Trocar穿刺器。将抽帧图像按照9∶1比例随机分为模型训练集和模型验证集,使用YOLOv8深度学习框架进行模型训练和验证。采用精确度、召回率、精确度均值和平均精确度均值(mAP)评价检测识别准确性。结果:训练集3 032帧图像,23个类别共计30 895个实例分割数量;验证集337帧图像,共计3 407个实例分割数量。使用YOLOv8m模型训练,训练集损失曲线中损失值随迭代计算轮次增加而逐步平滑下降。训练集中,23个类别检测识别AP值均达0.90以上,23个类别mAP为0.99。验证集中,23个类别mAP为0.82。单一类别中,超声刀、持针器、钳子、胆囊、小纱布和吻合器的AP值分别为0.96、0.94、0.91、0.91、0.91和0.91。模型成功推理应用于时长为5 min的腹腔镜下缝合胃肠共同开口视频片段。结论:本研究初步证实了计算机视觉可高效准确并实时地检测腹腔镜胃癌根治术各手术场景中的脏器和器械。
...不再出现此类内容
编辑人员丨4天前
-
基于改进YOLOv7模型的肺结节检测
编辑人员丨4天前
目的:设计一种基于改进YOLOv7模型的肺结节检测算法。方法:首先,在PAFPN结构中,引入轻量化上采样算子CARAFE,以提高肺结节检测精度。然后添加一个增强型小尺度检测层,增强对于小目标肺结节的检测性能,同时可减少训练的参数量,并降低模型复杂程度。在保证各项参数指标不变的情况下,对YOLOv5原模型算法和添加增强型小尺度检测层的YOLOv5模型算法、YOLOv7原模型算法和改进后YOLOv7模型算法进行消融实验;对改进点训练集总损失进行比较;用YOLOv7原模型算法和改进后YOLOv7模型算法对2张测试集图片进行推理,将其与近年来其他经典的肺结节检测算法Mask R-CNN、YOLOv3、YOLOv5s和YOLOv7对2张测试集图片进行比较。结果:添加增强型小尺度检测层的YOLOv5模型算法精度比YOLOv5原模型算法提升了1.3%,召回率提高了3.5%,平均精度(mAP)上升了3.1%,参数量减少了25.3%,网络的复杂程度也有所减少。改进后YOLOv7模型算法mAP提高1.8%,参数量减少28.3%,模型复杂程度下降5 G。添加增强型小尺度检测层与替换特诊融合网络为轻量化上采样算子CARAFE算法在训练过程中的总损失最小。YOLOv7原模型算法精度较高,但是仍然出现了漏检与假阳性的情况,与预测图片1比较,YOLOv7原模型出现了漏检的情况;与预测图片2比较,YOLOv7原模型出现了假阳性的情况。而改进后YOLOv7模型对漏检情况和假阳性均得到了很好的改善;与经典模型算法比较,改进后YOLOv7模型算法的精度、召回率和mAP最高,分别为91.7%、89.1%、93.5%。结论:改进YOLOv7模型具有更强的特征表达能力,参数量更少,能够有效提高肺结节的检测精度。
...不再出现此类内容
编辑人员丨4天前
-
卷积神经网络模型在胸部CT肋骨骨折诊断中的应用
编辑人员丨4天前
目的:探讨卷积神经网络(CNN)在胸部CT肋骨骨折诊断中应用的准确性和可行性。方法:收集2017年5月至2019年5月于山西白求恩医院行胸部CT检查的305例肋骨骨折患者的影像资料,经过图像裁剪构建包含5类胸部CT肋骨骨折图像数据集,共7433张图像,作为训练组数据,在深度学习caffe框架下采用Faster R-CNN和Yolov3模型对数据集进行训练和测试。另选取同期肋骨骨折患者20例,裁剪后144幅包含肋骨骨折的CT图像作为验证组,由两位高年资主任医师阅片并确定肋骨骨折类型及部位等作为诊断标准,分别使用Faster R-CNN、Yolov3模型进行验证,同时两位CT医师对验证组图像进行判读。比较3种方法的诊断准确率、诊断一致性及阅片时间。结果:验证组144幅CT图像共包含162处骨折,骨折类型包括双侧骨皮质断裂71处、外侧骨皮质断裂38处、内侧骨皮质断裂21处、骨皮质屈曲骨折12处、其他类型骨折20处。Faster R-CNN模型、Yolov3模型、CT医师诊断肋骨骨折的总准确率分别为95.68%(155/162)、83.33%(135/162)、96.30%(156/162),组间比较差异有统计学意义( P<0.001)。Kappa一致性检验显示,Faster R-CNN模型及CT医师的诊断一致性较好(Kappa=0.851, P=0.012)。CT医师、Faster R-CNN模型、Yolov3模型平均每幅图阅片时间分别为(11.57±5.80)s、(0.52±0.15)s、(0.054±0.003)s,组间比较差异有统计学意义( P<0.01)。 结论:利用深度卷积神经网络识别胸部CT肋骨骨折具有可行性,诊断总准确率与有经验的CT医师相当,而阅片速度更优。
...不再出现此类内容
编辑人员丨4天前
-
基于YOLOv5轻量化网络的人脸口罩识别方法研究
编辑人员丨1周前
目的:为解决人脸口罩识别中边缘和移动端设备存储与计算资源受限的问题,提出一种基于YOLOv5轻量化网络的人脸口罩识别方法.方法:选取由主干网络(Backbone)、颈部模块(Neck)和头部模块(Head)组成的YOLOv5模型作为基础框架.首先,使用ShuffleNetv2轻量化网络对Backbone部分进行修改替换;其次,在Neck部分引入Ghost模块和C3_S模块;最后,为提升检测精度,融入卷积块注意力模块(convolutional block attention module,CBAM),形成Shuffle_Yolo_GS_CBAM模型.选用AIZOO数据集训练和验证模型,通过平均精度均值(mean average precision,mAP)、每秒传输帧数(frames per second,FPS)、每秒 10 亿次的浮点运算数(giga floating-point operations per second,GFLOPS)和参数量评估模型对人脸口罩的识别效果.结果:该模型识别人脸口罩的mAP为89.5%,FPS为158.7帧/s,参数量和GFLOPS分别为2.38M和4.5 GFLOPS.与YOLOv5s相比,虽然检测精度略有下降,但检测速度提升了39.7%,模型参数量减少了 67.3%,模型运算量减少了 73.8%.结论:提出的方法在提高检测速度、减少参数量和计算量、保障检测精度方面表现良好,适合部署在边缘和移动端设备上进行人脸口罩识别.
...不再出现此类内容
编辑人员丨1周前
-
基于YOLO神经网络和迁移学习的结直肠息肉内镜图像分割
编辑人员丨1个月前
目的 基于YOLOv8神经网络开发针对结直肠息肉内镜图像的语义分割模型.方法 收集2018年6月至2024年2月期间的结直肠息肉内镜数据,包括静态图像和视频.所有样本均经过病理学验证,分为锯齿状病变和腺瘤性息肉两类.使用LabelMe工具进行了图像的多边形标注,并转换为YOLO模型兼容的格式.利用这些数据,进行了不同规模的YOLO神经网络模型的迁移学习和微调训练.模型的性能在验证集和测试集上进行了评估,包括精确率(Precision)、检测速度、准确率(ACC)、平均交并比(mIoU)等指标.结果 本研究开发了 5种不同版本大小的YOLOv8语义分割模型,包括v8n、v8s、v8m、v8l、v8x.其中YOLOv8l在速度(107.5帧/s)和精确率(94.50%)达到了最佳平衡,在内部验证集中YOLOv8l的准确率达0.924,mIoU达83.06%,Dice系数达0.941.在外部测试集中,准确率为0.902,mIoU为80.08%,Dice系数为0.923.结论 基于YOLOv8l构建的结直肠息肉语义分割模型具有良好地预测性能,能够自动对息肉进行定位和分类,并精确描述息肉的像素级轮廓.
...不再出现此类内容
编辑人员丨1个月前
-
基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型
编辑人员丨2024/7/27
以鲫(Carassius auratus)常见病害为例,从实际生产角度出发,提出了一种基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型,可实现鲫鱼体多种病害的同步无损快速检测.首先,通过利用Shuf-fleNetV2替换YOLOv5s主干网络,对模型进行轻量化改进;在此基础上,耦合一种基于卷积块的注意力机制[Convolutional block attention module(CBAM)]提高模型精准度;最后,结合空洞空间卷积池化金字塔[Atrous spatial pyramid pooling(ASPP)]提升模型鲁棒性.通过在自制鲫病害数据集上测试可知,文章所提出模型病害检测精确率可达92.0%,模型体积仅为14400 kb,优于当前相关主流模型(最高精确率为83.6%,最小体积为15750 kb),为水产养殖鱼类病害无损快速检测提供了技术支撑.
...不再出现此类内容
编辑人员丨2024/7/27
-
基于TC-YOLO模型的北京珍稀鸟类识别方法
编辑人员丨2024/7/13
北京地区珍稀鸟类的保护对维护当地生物多样性具有重要意义.随着人工智能技术的发展,利用深度学习技术自动识别鸟类成为鸟类调查保护的重要手段.实际鸟类图像存在背景复杂以及相近科属鸟类具有外观相似等特点,导致模型识别精度不佳.针对以上问题,本文提出一种基于TC-YOLO模型的鸟类识别方法.首先,为解决鸟类识别中复杂背景导致的漏检问题,本文方法结合CARAFE(content-aware reassembly of features)机制,自适应生成不同特征点所对应的上采样核,在更大的感受野内聚合上下文语义信息,有效聚焦鸟类前景区域.其次,为解决鸟类识别中相似外观导致的误检问题,本文方法引入TSCODE(task-specific context decoupling)解耦定位和分类任务,通过获取多层级特征图的信息以回归目标边界,并利用包含底层纹理和高层语义的特征进行物种分类,进而提高模型的鸟类识别精度.最后,本文开展对比实验以验证模型的性能.实验结果表明,TC-YOLO模型的平均精度均值在包含北京地区28种国家一级保护鸟类的自建数据集Beijing-28和鸟类公开数据集CUB200-2011上分别达到78.7%和75.3%,均优于已有方法,而且在公开数据集MS COCO上验证了TC-YOLO模型拥有较强的泛化性.本文提出的TC-YOLO模型对背景复杂或外观相似的鸟类图像都能有效识别,漏检率和误检率较低,能够为鸟类保护提供重要技术支撑.
...不再出现此类内容
编辑人员丨2024/7/13
-
基于改进YOLOv5s模型的车辆及行人检测方法
编辑人员丨2024/3/16
针对道路交通环境中车辆及行人目标较小或被遮挡造成的检测精度低以及误检、漏检问题,提出一种基于改进YOLOv5s模型的车辆及行人目标检测方法.针对小目标和遮挡目标,引入SIoU边界框损失函数,增加小目标检测层,增强对小尺度特征的获取;改进特征金字塔结构,增加横向特征图传递,并使用CSP stage替换C3_F特征提取网络,使其获得更多的语义信息和图形信息;改进后处理NMS算法,优化冗余边界框剔除方法,筛选出高质量检测结果.试验结果表明:改进YOLOv5s模型算法的Precision、Recall、mAP@0.5和mAP@0.5:0.95指标均优于Faster-RCNN、YOLOv3-tiny和YOLOv8s算法,与原YOLOv5s模型算法相比Precision下降了0.4%,但Recall、mAP@0.5和mAP@0.5:0.95提高了3.4%、2.1%和6.0%,分别达到了86.1%、92.9%和70.0%,对小目标和遮挡目标的检测效果明显提高,证明此改进方法有效解决了对小目标和遮挡目标检测精度低以及误检、漏检问题.
...不再出现此类内容
编辑人员丨2024/3/16
-
基于改进YOLOv5s的疲劳驾驶检测
编辑人员丨2024/3/16
针对驾驶员疲劳驾驶检测困难及检测精度低等问题,提出基于改进YOLOv5s的疲劳驾驶检测方案,以提高终端的边缘智能识别能力.以YOLOv5s为基础框架,通过改进损失函数,提高模型精度与鲁棒性;通过添加注意力机制模块,提高算法的特征提取能力和检测精度.开展基于改进EIoU损失函数和添加CBAM注意力模块的消融试验.试验结果表明:基于改进YOLOv5s的疲劳驾驶检测准确率和召回率分别为95.2%和95.0%,相较于原始YOLOv5s模型,闭眼检测精度提高了3.6%,哈欠检测精度提高了3.8%.
...不再出现此类内容
编辑人员丨2024/3/16
