-
用于BI-RADS 4类肿块动态超声诊断的人工智能新模型
编辑人员丨4天前
目的:探究一种融合了SAM-YOLOV 5深度学习网络和图像处理技术的人工智能(AI)新模型在乳腺影像报告与数据系统(BI-RADS)4类肿块超声动态视频良恶性分类中的应用。方法:回顾性收集2019年5月至2023年6月汕头大学医学院第一附属医院经病理证实的BI-RADS 4类的乳腺肿块患者458例(530个肿块),按7∶3的比例进行模型的训练和测试,分析模型的ROC曲线下面积(AUC)、敏感性、特异性、阳性预测值、阴性预测值。先与单张静态图像下的测试效果进行比较,再与3个传统的深度学习网络以及高、低年资医师组的测试效果进行比较。分析新模型在BI-RADS 4a、4b、4c类肿块中的诊断效能。结果:二维超声动态视频在新模型中测试所得到的AUC、敏感性、特异性、阳性预测值、阴性预测值高于使用单张超声静态图像(均 P<0.05)。基于二维超声动态视频下,新模型的AUC、敏感性、特异性、阳性预测值、阴性预测值高于3个深度学习网络模型(YOLOV 5、VGG 16、Resnet 50)和低年资医师组(均 P<0.05),低于高年资医师组(其中仅特异性、阴性预测值 P<0.05)。新模型对BI-RADS 4b类肿块诊断效能最低。 结论:基于SAM-YOLOV 5深度学习网络和图像处理技术开发的用于BI-RADS 4类乳腺肿块动态超声分类诊断的新模型有较高的诊断价值,有望用于辅助临床诊断。
...不再出现此类内容
编辑人员丨4天前
-
内镜下早期食管癌及癌前病变识别人工智能YOLOv51模型的建立及临床验证
编辑人员丨4天前
目的:以人工智能深度学习的方法,构建基于YOLOv5l模型的内镜图像早期食管癌及癌前病变的识别模型,以提高内镜下早期食管癌及癌前病变的诊断水平。方法:收集2019年6月至2021年7月中国医学科学院肿瘤医院1 126例患者的白光成像(WLI)、窄带光成像(NBI)和卢戈液染色(LCE)的内镜食管图像13 009幅,包括低级别上皮内瘤变、高级别上皮内瘤变、限于黏膜层的食管鳞癌、良性食管病变及正常食管。通过计算机随机函数方法,分为训练集(1 025例患者的11 547幅图像)和验证集(101例患者的1 462幅图像)。以训练集训练、构建YOLOv5l模型,以验证集验证该模型,同时由2名高年资和2名低年资内镜医师分别对验证集进行诊断,比较YOLOv5l模型与内镜医师的诊断结果。结果:在验证集中,YOLOv5l模型在WLI、NBI和LCE模式下诊断早期食管癌及癌前病变的准确度、灵敏度、特异度、阳性预测值(PPV)和阴性预测值(NPV)分别为96.9%、87.9%、98.3%、88.8%和98.1%, 98.6%、89.3%、99.5%、94.4%和98.2%,93.0%、77.5%、98.0%、92.6%和93.1%。NBI模式下的准确度高于WLI模式( P<0.05),LCE模式下的准确度低于WLI( P<0.05)。YOLOv5l模型在WLI、NBI和LCE模式下诊断早期食管癌及癌前病变的准确度与2位高年资内镜医师(分别为96.9%、98.8%和94.3%,97.5%、99.6%和91.9%;均 P>0.05)相当,但明显高于2位低年资内镜医师(分别为84.7%、92.9%和81.6%,88.3%、91.9%和81.2%;均 P<0.05)。 结论:所构建的YOLOv5l模型在内镜WLI、NBI和LCE模式下诊断早期食管癌及癌前病变中具有较高的准确度,可以辅助低年资内镜医师提高诊断水平、减少漏诊。
...不再出现此类内容
编辑人员丨4天前
-
计算机视觉人工智能技术在腹腔镜胃癌根治术中对器械和脏器的检测识别:一项多中心临床研究
编辑人员丨4天前
目的:探究计算机视觉人工智能技术在腹腔镜胃癌根治术场景中对器械和脏器检测识别的可行性和准确性。方法:收集国内4家大型三甲医院[解放军总医院第一医学中心(3份)、辽宁省肿瘤医院(2份)、江苏省人民医院溧阳分院(2份)、复旦大学附属肿瘤医院(1份)]共计8份完全腹腔镜远端胃癌根治术手术视频。使用PR软件每5~10 s进行抽帧转换为图帧,转换后进行人工去重,去除明显雷同图帧和模糊图帧以确保质量。转换并去重后,抽帧图像共3 369张,图像分辨率为1 920×1 080 PPI,用LabelMe实例分割图像;共计23个类别包括静脉、动脉、缝针、持针器、超声刀、吸引器、出血、结肠、钳子、胆囊、小纱布、Hem-o-lok夹、Hem-o-lok钳子、电钩、小肠、肝圆韧带、肝脏、网膜、胰腺、脾脏、吻合器、胃和Trocar穿刺器。将抽帧图像按照9∶1比例随机分为模型训练集和模型验证集,使用YOLOv8深度学习框架进行模型训练和验证。采用精确度、召回率、精确度均值和平均精确度均值(mAP)评价检测识别准确性。结果:训练集3 032帧图像,23个类别共计30 895个实例分割数量;验证集337帧图像,共计3 407个实例分割数量。使用YOLOv8m模型训练,训练集损失曲线中损失值随迭代计算轮次增加而逐步平滑下降。训练集中,23个类别检测识别AP值均达0.90以上,23个类别mAP为0.99。验证集中,23个类别mAP为0.82。单一类别中,超声刀、持针器、钳子、胆囊、小纱布和吻合器的AP值分别为0.96、0.94、0.91、0.91、0.91和0.91。模型成功推理应用于时长为5 min的腹腔镜下缝合胃肠共同开口视频片段。结论:本研究初步证实了计算机视觉可高效准确并实时地检测腹腔镜胃癌根治术各手术场景中的脏器和器械。
...不再出现此类内容
编辑人员丨4天前
-
基于改进YOLOv7模型的肺结节检测
编辑人员丨4天前
目的:设计一种基于改进YOLOv7模型的肺结节检测算法。方法:首先,在PAFPN结构中,引入轻量化上采样算子CARAFE,以提高肺结节检测精度。然后添加一个增强型小尺度检测层,增强对于小目标肺结节的检测性能,同时可减少训练的参数量,并降低模型复杂程度。在保证各项参数指标不变的情况下,对YOLOv5原模型算法和添加增强型小尺度检测层的YOLOv5模型算法、YOLOv7原模型算法和改进后YOLOv7模型算法进行消融实验;对改进点训练集总损失进行比较;用YOLOv7原模型算法和改进后YOLOv7模型算法对2张测试集图片进行推理,将其与近年来其他经典的肺结节检测算法Mask R-CNN、YOLOv3、YOLOv5s和YOLOv7对2张测试集图片进行比较。结果:添加增强型小尺度检测层的YOLOv5模型算法精度比YOLOv5原模型算法提升了1.3%,召回率提高了3.5%,平均精度(mAP)上升了3.1%,参数量减少了25.3%,网络的复杂程度也有所减少。改进后YOLOv7模型算法mAP提高1.8%,参数量减少28.3%,模型复杂程度下降5 G。添加增强型小尺度检测层与替换特诊融合网络为轻量化上采样算子CARAFE算法在训练过程中的总损失最小。YOLOv7原模型算法精度较高,但是仍然出现了漏检与假阳性的情况,与预测图片1比较,YOLOv7原模型出现了漏检的情况;与预测图片2比较,YOLOv7原模型出现了假阳性的情况。而改进后YOLOv7模型对漏检情况和假阳性均得到了很好的改善;与经典模型算法比较,改进后YOLOv7模型算法的精度、召回率和mAP最高,分别为91.7%、89.1%、93.5%。结论:改进YOLOv7模型具有更强的特征表达能力,参数量更少,能够有效提高肺结节的检测精度。
...不再出现此类内容
编辑人员丨4天前
-
卷积神经网络模型在胸部CT肋骨骨折诊断中的应用
编辑人员丨4天前
目的:探讨卷积神经网络(CNN)在胸部CT肋骨骨折诊断中应用的准确性和可行性。方法:收集2017年5月至2019年5月于山西白求恩医院行胸部CT检查的305例肋骨骨折患者的影像资料,经过图像裁剪构建包含5类胸部CT肋骨骨折图像数据集,共7433张图像,作为训练组数据,在深度学习caffe框架下采用Faster R-CNN和Yolov3模型对数据集进行训练和测试。另选取同期肋骨骨折患者20例,裁剪后144幅包含肋骨骨折的CT图像作为验证组,由两位高年资主任医师阅片并确定肋骨骨折类型及部位等作为诊断标准,分别使用Faster R-CNN、Yolov3模型进行验证,同时两位CT医师对验证组图像进行判读。比较3种方法的诊断准确率、诊断一致性及阅片时间。结果:验证组144幅CT图像共包含162处骨折,骨折类型包括双侧骨皮质断裂71处、外侧骨皮质断裂38处、内侧骨皮质断裂21处、骨皮质屈曲骨折12处、其他类型骨折20处。Faster R-CNN模型、Yolov3模型、CT医师诊断肋骨骨折的总准确率分别为95.68%(155/162)、83.33%(135/162)、96.30%(156/162),组间比较差异有统计学意义( P<0.001)。Kappa一致性检验显示,Faster R-CNN模型及CT医师的诊断一致性较好(Kappa=0.851, P=0.012)。CT医师、Faster R-CNN模型、Yolov3模型平均每幅图阅片时间分别为(11.57±5.80)s、(0.52±0.15)s、(0.054±0.003)s,组间比较差异有统计学意义( P<0.01)。 结论:利用深度卷积神经网络识别胸部CT肋骨骨折具有可行性,诊断总准确率与有经验的CT医师相当,而阅片速度更优。
...不再出现此类内容
编辑人员丨4天前
-
深度学习技术识别腹腔镜手术视频中肾动脉的可行性
编辑人员丨4天前
目的:探讨深度学习技术在经腹膜后入路腹腔镜肾脏手术视频中对肾动脉识别的可行性。方法:回顾性分析2020年1月至2021年7月北京协和医院实施的87例腹腔镜经腹膜后入路肾脏手术视频资料,包括根治性肾切除术、肾部分切除术、半尿路切除术。由2名泌尿外科医生筛选出包含肾动脉的视频片段,经过抽帧、标注、审核、校对后,用随机数字表法按4∶1比例将标注目标分为训练集和测试集。训练集用于训练神经网络模型,测试集用于测试不同难度场景下神经网络识别肾动脉的能力,统一输送至YOLOv3卷积神经网络模型进行训练。测试集根据2名高年资医生意见,按肾动脉与周围组织的区分度分为高、中、低辨认度。高辨认度即肾动脉干净,暴露面积大;中辨认度为肾动脉有一定程度浸血,暴露面积中等;低辨认度为肾动脉暴露面积小,常位于镜头边缘,浸血严重,可能存在镜头模糊。标注人员在手术视频中逐帧标注肾动脉真值框。所有图像经过归一化、预处理后输入神经网络模型进行训练。神经网络输出肾动脉预测框,与真值框重合的交并比(IOU)高于设定的阈值则判定为预测正确。记录测试集神经网络测试结果,根据IOU计算敏感性、精确率。结果:本研究87个视频共提取5 457帧图像,其中49个视频片段共4 490个目标为训练集,38个视频片段共1 135个目标为测试集。训练集中13个视频1 149个目标为高辨认度,17个视频1 891个目标为中辨认度,19个视频1 450个目标为低辨认度。测试集中,9个视频267个目标为高辨认度,11个视频519个目标为中辨认度,18个视频349个目标为低辨认度。测试集IOU阈值为0.1时,敏感性和精确率分别为52.78%和82.50%;IOU阈值为0.5时,敏感性和精确率分别为37.80%和59.10%。IOU阈值为0.1时,高、中、低辨认度组的敏感性和精确率分别为89.14%和87.82%、45.86%和78.03%、32.95%和76.67%。实时手术视频中YOLOv3算法的帧率≥15帧/秒。神经网络对于腹腔镜肾脏手术视频中肾动脉识别的误检率和漏检率分别为47.22%和17.49%(IOU=0.1)。误检原因主要为相似组织、反光导致的误识别,漏检主要原因为存在图像模糊、浸血、暗光、筋膜干扰、器械遮挡等。结论:基于深度学习的肾动脉识别技术是可行的,或可协助术者在术中快速识别并保护肾动脉,提高手术安全性。
...不再出现此类内容
编辑人员丨4天前
-
基于YOLO神经网络和迁移学习的结直肠息肉内镜图像分割
编辑人员丨1周前
目的 基于YOLOv8神经网络开发针对结直肠息肉内镜图像的语义分割模型.方法 收集2018年6月至2024年2月期间的结直肠息肉内镜数据,包括静态图像和视频.所有样本均经过病理学验证,分为锯齿状病变和腺瘤性息肉两类.使用LabelMe工具进行了图像的多边形标注,并转换为YOLO模型兼容的格式.利用这些数据,进行了不同规模的YOLO神经网络模型的迁移学习和微调训练.模型的性能在验证集和测试集上进行了评估,包括精确率(Precision)、检测速度、准确率(ACC)、平均交并比(mIoU)等指标.结果 本研究开发了 5种不同版本大小的YOLOv8语义分割模型,包括v8n、v8s、v8m、v8l、v8x.其中YOLOv8l在速度(107.5帧/s)和精确率(94.50%)达到了最佳平衡,在内部验证集中YOLOv8l的准确率达0.924,mIoU达83.06%,Dice系数达0.941.在外部测试集中,准确率为0.902,mIoU为80.08%,Dice系数为0.923.结论 基于YOLOv8l构建的结直肠息肉语义分割模型具有良好地预测性能,能够自动对息肉进行定位和分类,并精确描述息肉的像素级轮廓.
...不再出现此类内容
编辑人员丨1周前
-
指纹皱纹研究的现状及展望
编辑人员丨1个月前
指纹是手指指腹上由乳突纹线构成的花纹结构,在日常生活中扮演着重要角色.指纹皱纹是皮纹学中非皮嵴纹构型和屈肌褶纹的一个显著特征,因其在捺印指印时表现为正常乳突纹线在不同方向上中断,从而形成白色条纹,因此又称为指纹白线.指纹皱纹的形成和表现与皮肤疾病、民族种群和个体差异等因素相关联,故该特征在皮纹学、医学、法庭科学和计算机识别等领域具有重要的应用价值.本文对指纹皱纹的基本属性进行了整理,重点介绍了其研究进展,并初步展望了未来的研究方向,希望为其科学研究提供有益的参考.
...不再出现此类内容
编辑人员丨1个月前
-
基于全局-局部注意力机制和YOLOv5的宫颈细胞图像异常检测模型
编辑人员丨1个月前
目标 建立一种新的基于全局-局部注意机制和YOLOv5的宫颈病变细胞检测模型(Trans-YOLOv5),为准确、高效地分析宫颈细胞学图像并做出诊断提供帮助.方法 使用共含有7410张宫颈细胞学图像且均包含对应真实标签的公开数据集.采用结合了数据扩增方式与标签平滑等技巧的YOLOv5网络结构实现对宫颈病变细胞的多分类检测.在YOLOv5骨干网络引用CBT3以增强深层全局信息提取能力,设计ADH检测头提高检测头解耦后定位分支对纹理特征的结合能力,从而实现全局-局部注意机制的融合.结果 实验结果表明Trans-YOLOv5优于目前最先进的方法.mAP和AR分别达到65.9%和53.3%,消融实验结果验证了Trans-YOLOv5各组成部分的有效性.结论 本文发挥不同注意力机制分别在全局特征与局部特征提取能力的差异,提升YOLOv5对宫颈细胞图像中异常细胞的检测精度,展现了其在自动化辅助宫颈癌筛查工作量的巨大潜力.
...不再出现此类内容
编辑人员丨1个月前
-
基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型
编辑人员丨2024/7/27
以鲫(Carassius auratus)常见病害为例,从实际生产角度出发,提出了一种基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型,可实现鲫鱼体多种病害的同步无损快速检测.首先,通过利用Shuf-fleNetV2替换YOLOv5s主干网络,对模型进行轻量化改进;在此基础上,耦合一种基于卷积块的注意力机制[Convolutional block attention module(CBAM)]提高模型精准度;最后,结合空洞空间卷积池化金字塔[Atrous spatial pyramid pooling(ASPP)]提升模型鲁棒性.通过在自制鲫病害数据集上测试可知,文章所提出模型病害检测精确率可达92.0%,模型体积仅为14400 kb,优于当前相关主流模型(最高精确率为83.6%,最小体积为15750 kb),为水产养殖鱼类病害无损快速检测提供了技术支撑.
...不再出现此类内容
编辑人员丨2024/7/27
