-
基于人工智能自动分析技术的视网膜血管形态参数测量及特征分析
编辑人员丨4天前
目的:基于人工智能技术对视网膜血管形态学参数进行全自动定量测量,分析我国北方50岁以上人群视网膜血管参数及分布特征。方法:采用横断面研究方法,纳入2011年1月至2021年12月就诊于北京同仁医院的50岁以上无眼底病的患者1 842例,对纳入的受试者进行标准化问卷调查、抽血和眼科检查;收集各受试者任意一眼以视盘为中心的彩色眼底照片,采用基于深度学习的语义分割网络ResNet101-Unet构建血管分割模型,进行全自动视网膜血管参数定量测量,主要测量指标包括视网膜血管分支夹角、血管分形维数、血管平均管径和血管平均弯曲度。比较不同性别间各视网膜参数的差异。采用多元线性回归分析法分析最佳矫正视力、眼压、眼轴长度等眼部因素和性别、年龄、高血压、糖尿病、心血管疾病等全身因素是否是各视网膜血管参数的影响因素。结果:模型对于血管分割和视盘分割的准确度均高于0.95。1 842例受试者血管分支夹角为(51.023±11.623)°;血管分形维数为1.573(1.542,1.592);血管平均管径为64.124(60.814,69.053)μm;血管平均弯曲度为(0.001 062±0.000 165)°。男性血管分支夹角大于女性,血管平均管径和血管平均弯曲度小于女性,差异均有统计学意义(均 P<0.05)。全身因素多元线性回归分析结果显示,患有心血管疾病的人群较无心血管疾病的人群血管平均管径增大1.142 μm( B=1.142, P=0.029,95% CI:0.116~2.167);血管平均弯曲度与高血压( B=3.053×10 -5, P=0.002,95% CI:1.167×10 -5~4.934×10 -5)和饮酒量( B=1.036×10 -5, P=0.014,95% CI:0.211×10 -5~1.860×10 -5)呈正相关,与高脂血症呈负相关( B=-2.422×10 -5, P=0.015,95% CI:-4.382×10 -5~-0.462×10 -5)。眼部因素多元线性回归分析结果显示,眼轴长度每增加1 mm,血管分形维数减小0.004( B=-0.004, P<0.001,95% CI:-0.006~-0.002),血管平均管径减小0.266 μm( B=-0.266, P=0.037,95% CI:-0.516~-0.016),血管平均弯曲度减小-2.45×10 -5°( B=-2.45×10 -5, P<0.001,95% CI:-0.313×10 -5~-0.177×10 -5)。BCVA每增加1.0,血管分支夹角增大3.992°( B=3.992, P=0.004,95% CI:1.283~6.702),血管分形维数增大0.090( B=0.090, P<0.001,95% CI:0.078~0.102),血管平均管径减小14.813 μm( B=-14.813, P<0.001,95% CI:-16.474~-13.153)。 结论:成功构建视网膜血管分割模型。视网膜血管参数与性别、年龄、系统性疾病和眼部因素存在关联。
...不再出现此类内容
编辑人员丨4天前
-
深度学习技术识别喉返神经在经腋窝腔镜甲状腺手术中的探索
编辑人员丨4天前
目的:喉返神经(recurrent laryngeal nerve,RLN)是腔镜甲状腺手术中需重点识别和保护的结构。本研究旨在探索深度学习技术识别RLN在经腋窝入路腔镜甲状腺手术中的应用价值。方法:收集2020年7月1日至2021年5月1日在北京协和医院基本外科操作的,留存了完整视频资料的经腋窝入路腔镜甲状腺手术录像。两位资深甲状腺外科医师选取其中包含RLN的视频片段,经过训练的标注人员对RLN的轮廓进行描绘标注,并经两位甲状腺外科医师审校确认。视频资料用随机数方法按照5∶1的比例分为训练集及测试集,并根据RLN与周围组织的辨识度分为高、中、低辨识度。采用基于PSPNet的语义分割模型进行训练,使用ResNet50作为主干网络提取特征,同时结合金字塔池化模型融合多尺度特征,最终根据交并比(insertion over union, IOU)评判深度学习神经网络对RLN具体位置预测的能力。所有资料使用R 4.0.2版本分析。结果:共38个视频中累计35 501帧图像纳入本研究,其中32个视频共29 704帧图像作为训练集,6个视频共5 797帧图像作为测试集。当IOU阈值设为0.1时,模型在高、中、低辨识度组中的灵敏度和精确率分别达到了100.0%/92.1%、95.8%/80.2%及81.0%/80.6%。而当IOU阈值提高到0.5时(代表有效定位RLN),灵敏度和精确率则分别为92.6%/85.3%、71.7%/60.5%及38.1%/37.9%。这说明本模型在辨识度中高时可很好地提示RLN的位置和走行。漏检通常因目标过小、边界不明确所致。结论:基于深度学习的人工智能RLN识别在腔镜甲状腺手术视频中是可行的,有潜在的应用价值,有可能帮助外科医生降低手术中误损伤风险,提高手术安全性。
...不再出现此类内容
编辑人员丨4天前
-
基于YOLO神经网络和迁移学习的结直肠息肉内镜图像分割
编辑人员丨1周前
目的 基于YOLOv8神经网络开发针对结直肠息肉内镜图像的语义分割模型.方法 收集2018年6月至2024年2月期间的结直肠息肉内镜数据,包括静态图像和视频.所有样本均经过病理学验证,分为锯齿状病变和腺瘤性息肉两类.使用LabelMe工具进行了图像的多边形标注,并转换为YOLO模型兼容的格式.利用这些数据,进行了不同规模的YOLO神经网络模型的迁移学习和微调训练.模型的性能在验证集和测试集上进行了评估,包括精确率(Precision)、检测速度、准确率(ACC)、平均交并比(mIoU)等指标.结果 本研究开发了 5种不同版本大小的YOLOv8语义分割模型,包括v8n、v8s、v8m、v8l、v8x.其中YOLOv8l在速度(107.5帧/s)和精确率(94.50%)达到了最佳平衡,在内部验证集中YOLOv8l的准确率达0.924,mIoU达83.06%,Dice系数达0.941.在外部测试集中,准确率为0.902,mIoU为80.08%,Dice系数为0.923.结论 基于YOLOv8l构建的结直肠息肉语义分割模型具有良好地预测性能,能够自动对息肉进行定位和分类,并精确描述息肉的像素级轮廓.
...不再出现此类内容
编辑人员丨1周前
-
基于深度学习的舌象特征研究
编辑人员丨2周前
目的/意义 应用深度学习技术达到舌象分析自动化的目的,为中医舌象标准化提供参考依据,进一步推进中医诊疗技术现代化进程.方法/过程 构建以区域关联性为基础、引入标签松弛技术的语义分割损失函数,显式约束舌象分割模型学习局部区域各像素关联性的同时,对错误标签具有一定的容错能力;从舌象特征中内含的颜色相关性潜在先验出发,在模型构建阶段将舌象特征仅解耦为两类下游多标签分类任务,在加速模型拟合的同时有效降低模型复杂度.结果/结论 在自建数据集上验证算法有效性,舌象分割MIoU指标为96.57%,舌象分析宏F1值、平均准确率分别为88.58%、82.59%.
...不再出现此类内容
编辑人员丨2周前
-
基于多尺度细节增强的脑瘤图像分割研究
编辑人员丨1个月前
针对脑瘤图像分割网络的跳跃连接引起的语义特征传递不平衡,以及多尺度特征关联不足,导致细节特征丢失,从而造成对细小目标肿瘤的分割精度不佳的问题,提出一种改进的Res-Unet框架的分割模型.该模型引入多尺度注意力融合模块,通过混合多尺度特征使模型更好地适应不同尺寸的肿瘤;该模型在跳跃连接中引入空间注意力模块,增强特征表达同时避免无用信息的干扰,保留特征图空间细节特征;最后通过辅助分类器模块,在解码器部分对不同尺度特征图进行特征预测.使用BraTS2020数据集进行实验和评估,使用Dice系数来评估模型分割效果.结果显示,改进的网络在全肿瘤区域、肿瘤核心区域和增强肿瘤区域的Dice系数分别为0.8877、0.8229、0.8027,相比于通道注意力模型增强肿瘤区域和肿瘤核心区域的系数分别提升2.6%和0.14%,证明改进模型在脑瘤核磁共振图像分割的有效性和精确性.
...不再出现此类内容
编辑人员丨1个月前
-
基于深度学习的结直肠息肉内镜图像分割和分类方法比较
编辑人员丨1个月前
目的·比较不同深度学习方法在结直肠息肉内镜图像分割和分类任务中的性能,以确定最优方法.方法·从3家医院采集4个结肠息肉数据集,涵盖1534个静态图像及15个肠镜视频.所有样本均经病理学验证,分为锯齿状病变和腺瘤性息肉2类.使用LabelMe工具进行多边形标注,将标注结果转换为整数掩膜格式.数据用于训练不同架构的深度神经网络,包括卷积神经网络、Transformer以及这2种技术的融合,建立有效的语义分割模型.对比不同架构模型自动诊断结肠息肉的多项性能指标,包括平均交并比(mIoU)、整体准确率(aAcc)、平均准确率(mAcc)、平均Dice系数(mDice)、平均F分数(mFscore)、平均精确率(mPrecision)和平均召回率(mRecall).结果·开发了4种不同架构的语义分割模型,包括2种深度卷积神经网络架构(Fast-SCNN和DeepLabV3plus)、1种Transformer架构(Segformer)以及1种混合架构(KNet).在对291张测试图像进行综合性能评估中,KNet最高mIoU为84.59%,显著优于Fast-SCNN(75.32%)、DeepLabV3plus(78.63%)和Segformer(80.17%).在"背景""锯齿状病变"和"腺瘤性息肉"3个类别上,KNet的交并比(IoU)分别为98.91%、74.12%和80.73%,均超越其他模型.KNet在关键性能指标上也表现优异,其中aAcc、mAcc、mDice、mFscore和mRecall分别达到98.59%、91.24%、91.31%、91.31%和91.24%,均优于其他模型.尽管在mPrecision上,91.46%并非最突出,但KNet的整体性能仍领先.在80张外部测试图像的推理测试中,KNet保持了81.53%的mIoU,展现出良好的泛化能力.结论·利用基于KNet混合架构的深度神经网络构建的结直肠息肉内镜图像语义分割模型表现出优异的预测性能,具有成为检测结直肠息肉高效工具的潜力.
...不再出现此类内容
编辑人员丨1个月前
-
基于语义分割的单导心电图心拍分类研究
编辑人员丨1个月前
为从心电图(electrocardiogram,ECG)中准确识别心拍,本研究提出了一种融合残差连接与注意力机制的改进一维U-Net语义分割模型,使用从上万名患者远程动态ECG记录中截取的 148 340 条单导联ECG数据,对正常窦性心律(Nor-mal)、室性早搏(premature ventricular contraction,PVC)、房性早搏(atrial premature beat,APB)、左束支传导阻滞(left bundle branch block,LBBB)和右束支传导阻滞(right bundle branch block,RBBB)五种常见心拍进行分类.该模型以一定长度的ECG片段作为输入,通过添加背景标签,完成对所有采样点的语义分割,实现对各心拍进行定位的同时,完成类型识别.在测试集上的实验结果表明,该模型能够准确检测心拍位置,仅有 0.04%的心拍被漏检;对Normal、PVC、APB、LBBB、RBBB心拍分类的F1分数分别为 99.44%、99.03%、97.63%、95.25%和 94.77%.该方法与传统U-Net模型相比,能够取得更好的心拍分类效果.
...不再出现此类内容
编辑人员丨1个月前
-
基于改进DeepLabV3+的囊型肝包虫病超声图像分割算法
编辑人员丨2024/7/20
目的:将基于改进DeepLabV3+的图像语义分割算法应用到囊型肝包虫病超声图像处理中,实现肝包虫病病灶的自动分割与检测,提高临床诊断效率.方法:本研究采用了DeepLabV3+图像语义分割网络为基础方法,并对其进行了以下改进.首先,为解决DeepLabV3+图像语义分割方法计算复杂度高,内存消耗大,难以在计算能力有限的嵌入式平台上部署,在提取图像特征信息时难以充分利用多尺度信息等问题,以MobileNetV2替换模型的原主干网络Xception,获得轻量级的模型框架.其次,将高效通道注意力应用于底层特征,降低计算复杂度,提高目标边界的清晰度.最后,将Dice Loss引入模型中,缓解模型更关注背景区域,而忽略了包含目标的前景区域等问题.结果:在自建囊型肝包虫病VOC2007数据集5种病灶类型上进行验证,实验结果表明,改进模型的平均交并比和平均像素精度分别达到73.8%和83.5%,能够预测更精细的语义分割结果,有效地优化模型复杂度和分割精度.
...不再出现此类内容
编辑人员丨2024/7/20
-
基于多尺度3D-CT特征预测肾细胞癌组织亚型和WHO/ISUP分级模型的构建与验证
编辑人员丨2024/7/6
目的 探讨基于多尺度3D-CT特征构建的模型能否为肾细胞癌(RCC)组织亚型和WHO/ISUP分级提供稳健的预测.方法 回顾性分析来自4个医疗中心的507例经术后病理证实为RCC的患者,将其分为训练集(中心1~3,346例)、内部验证集(中心1~3,87例)和外部测试集(中心4,74例).构建的预测模型包含以下模块:由3D-UNet构建的肾脏-肿瘤语义分割模型、基于感兴趣区域的多尺度特征提取器以及由XGBoost算法构建的2个分类器.另外,采用五折交叉验证和多中心外部测试的策略验证和测试模型的稳定性和泛化能力.最后,通过计算单一特征的SHAP量探索每个特征对模型决策的贡献.结果 无论RCC组织亚型还是WHO/ISUP分级预测,相比单期相CT模型,多期相CT模型的准确率和效能都更加优秀.在预测RCC组织亚型模型中,五折交叉验证的AUROC分别为0.86、0.85、0.88、0.88和0.89,最优模型的内部验证集和外部测试集AUROC分别为0.89和0.75.而对于WHO/ISUP分级的预测模型,五折交叉验证的AUROC分别为0.81、0.82、0.79、0.73和0.81,最优模型的内部验证集和外部测试集AUROC分别为0.82和0.73.在模型的可解释性分析上,一阶统计量和灰度矩阵特征分别为RCC组织亚型预测模型贡献量排名第一、二的特征;而在WHO/ISUP分级预测模型中一阶统计量则发挥了最重要的作用.结论 基于多尺度3D-CT特征构建的模型可为术前评估RCC组织亚型和WHO/ISUP分级提供一个强有力的预测.
...不再出现此类内容
编辑人员丨2024/7/6
-
基于全局注意力多任务网络方法的CT图像细小骨折检测研究
编辑人员丨2024/4/27
目的:通过全局注意力多任务网络提升CT图像细小骨折检测的感知,通过多任务实现实例级别细小骨折目标的检测,快速、准确地从大量CT图像中识别并定位骨折,以辅助临床及时开展治疗.方法:引入分组非局部(non-local)网络方法,计算CT图像连续切片任何位置和通道之间的远程依赖关系,将多目标检测模型3D RetinaNet单级检测器与医学图像语义分割(3D U-Net)架构相融合,实现端到端的多任务3D卷积网络,以多任务联合的方式实现对细小骨折的实例级别检测.选择医学图像计算与计算机辅助干预(MICCAI)2020挑战赛提供的肋骨骨折公开数据集(Rib Frac Dataset)600例CT扫描图像,通过5∶1的比例划分为训练集(500例)和验证集(100例),测试多任务3D卷积网络的精度性能.结果:多任务3D卷积网络方法的检测精度性能优于单任务网络FracNet、3D RetinaNet及3D Retina U-Net,其平均精度与3D RetinaNet和3D Retina U-Net网络相比分别高出7.8%和11.4%,且优于3D Faster R-CNN、3D Mask R-CNN两种单任务网络检测方法,平均精度分别高出约6.7%和3.1%.结论:全局注意力多任务网络融合不同模块,对于细小骨折检测性能均有提升,引入分组非局部(Non-local)网络方法能够进一步提升对细小骨折目标的检测精度性能.
...不再出现此类内容
编辑人员丨2024/4/27
