-
基于卷积神经网络的"舌边白涎"舌象识别研究
编辑人员丨5天前
目的 通过机器学习分析"舌边白涎"舌象特性,对舌象进行局部特征识别研究,探讨卷积神经网络算法在舌象识别应用中的性能.方法 使用Python进行图像预处理,搭建用于舌象识别的视觉几何组 16层(visual geometry group 16,VGG16)卷积神经网络模型,分析其对"舌边白涎"舌象鉴别分析的效果,并结合热力图分析"舌边白涎"典型舌象表现.结果 基于PyTorch框架,进行卷积神经网络的舌象鉴别研究,VGG16 及残差网络 50 层(residual network 50,ResNet50)模型验证准确率均较高,达到 80%以上,且ResNet50 模型优于VGG16 模型,可为舌象识别提供一定参考.基于加权梯度类激活映射(gradient-weighted class activa-tion mapping,Grad-CAM)技术,通过舌苔舌色差异分布的网络可视化,有助于直观进行模型评估分析.结论 基于卷积神经网络模型对舌象数据库进行分析,实现"舌边白涎"舌象识别,有助于临床诊疗的客观化辅助分析,为舌诊智能化发展提供一定借鉴.
...不再出现此类内容
编辑人员丨5天前
-
基于深度学习的多分类正畸图像识别研究
编辑人员丨5天前
目的:基于深度学习开发用于正畸图像数据自动分类的多分类正畸图像识别模型,为正畸图像数据管理提供参考。方法:收集2020年10至11月和2021年6至7月首都医科大学口腔医学院正畸科采集的35 000张正畸临床图像,图像全部来自于490例正畸治疗患者,男女性别比例为49∶51,年龄范围为4~45岁。根据纳入及排除标准进行数据清洗,最终纳入数据集中的图像数据包括面像17 453张(包括正面像、正面微笑像、右侧90°面像、左侧90°面像、右侧45°面像和左侧45°面像)、口内像8 026张[包括正面 像、右侧 像、左侧 像、上颌 面像(原始)、上颌 面像(翻转后)、下颌 面像(原始)、下颌 面像(翻转后)、覆 覆盖像]、X线片4 115张[包括头颅侧位X线片(左侧)、头颅侧位X线片(右侧)、头颅正位X线片、曲面体层X线片以及手腕骨X线片]、其他非正畸图像684张。由正畸专业博士研究生、副主任医师、主任医师共同组成标注团队,使用图像标注工具对正畸图像进行分类标注。图像类别包括6类面像、8类口内像、5类X线片以及其他图像,共计20种分类标签。每个标签的数据按8∶1∶1的比例利用Pthyon计算机语言中的Random函数随机分为训练集、验证集和测试集,使用改进的SqueezeNet网络(一种深度学习模型)进行训练,使用ImageNet自然图片开源数据集中的13 000张作为额外的非正畸图像进行异常数据处理的算法优化,构建基于深度学习模型的多分类正畸图像识别模型。根据测试集的预测结果,利用精确率、召回率、F1分数以及混淆矩阵作为正畸图像分类准确性的指标,评价该模型的预测能力。使用梯度加权分类激活映射方法生成热力图,验证该模型进行图像分类判断逻辑的可靠性。 结果:通过数据清洗和标签标注,共30 278张正畸图像纳入数据集。测试集分类结果显示,多数分类标签的精确率、召回率以及F1分数为100%,3 047张图像中仅5张分类错误,模型精确率达99.84%(3 042/3 047)。而异常数据处理的精确率达100%(10 500/10 500)。热力图显示,多分类正畸图像识别模型在图像分类过程中的判断依据与人类在判断该图像分类时基本一致。结论:本项研究基于改进后的SqueezeNet网络构建了一种可用于20种正畸图像自动分类的多分类正畸图像识别模型,该模型的图像分类准确性较好。
...不再出现此类内容
编辑人员丨5天前
-
基于深度学习算法联合Grad-CAM的宫腔镜子宫内膜病变诊断模型研究
编辑人员丨2024/7/13
目的:探讨基于深度学习(DL)算法联合可视化技术梯度加权类激活热图(Grad-CAM)开发的宫腔镜子宫内膜病变诊断模型的有效性.方法:选择2021年6月1日至2022年12月31日在武汉大学人民医院妇科行宫腔镜检查的291例患者的303段宫腔镜视频(4781张图像),采用权重采样的方法,将数据集划分为训练集(3703张)和测试集(1078张).在对训练集用于模型学习与训练后,选择残差神经网络(ResNet18)和高效神经网络(EfficientNet-B0)两种模型架构对测试集分别采用五类和二类分类任务进行模型验证.以病理组织学为金标准,评估其诊断效能,从而选出最优模型,并将Grad-CAM层嵌入最优模型中,输出宫腔镜图像Grad-CAM.结果:①在五类分类任务中,EfficientNet-B0 模型的准确度(93.23%)高于 ResNet18 模型(84.23%);EfficientNet-B0 模型在诊断无不典型性子宫内膜增生、子宫内膜息肉、子宫内膜癌、子宫内膜非典型增生、黏膜下肌瘤5种疾病的曲线下面积(AUC)均稍高于ResNet18模型,两者的AUC几乎都在0.980以上.②在准确度的二类分类任务中和对特异度的评估中,两种模型相似,均在93.00%以上,而EfficientNet-B0模型敏感度(91.14%)明显优于ResNet18模型(77.22%).③EfficientNet-B0模型联合Grad-CAM算法可识别出图像中异常区域,取活检经病理检查证实,模型输出热力图中标记区域约95%为病灶区域.结论:EfficientNet-B0模型联合Grad-CAM研发的宫腔镜诊断模型具有较高的诊断准确度、敏感度和特异度,在诊断子宫内膜病变方面具有应用价值.
...不再出现此类内容
编辑人员丨2024/7/13
-
基于增强CT的深度学习模型预测胃肠道间质瘤Ki-67表达的双中心研究
编辑人员丨2024/4/27
目的 探讨基于增强CT的深度学习模型术前无创预测胃肠道间质瘤(GIST)Ki-67 表达的价值.方法 回顾性收集2所医院经手术病理证实且行免疫病理学染色的 262 例GIST病人的临床及影像学资料,其中男140 例、女 122例,平均年龄(55.82±10.13)岁.将一所医院收集的190 例病人使用随机分层抽样法以 7∶3 的比例分为训练组(133 例)和内部验证组(57例);将另一所医院收集的病人作为外部验证组(72 例).应用Resnet34、Resnet50、Densenet、Efficientnet和Efficientnetv2 等 5 种基础网络进行模型训练和优化.采用受试者操作特征曲线下面积(AUC)、准确度、特异度、敏感度评估模型的预测效能.使用DeLong检验比较各模型间AUC值差异,得到最佳网络模型.应用梯度类加权激活映射(Grad-CAM)可视化的方法在原始CT图像上生成注意力热图.结果 当学习率(Lr)为 0.000 5 时,5 种模型在训练组、内部验证组、外部验证组中预测Ki-67 表达的AUC值均高于Lr=0.000 1 时.Densenet(Lr=0.0005)模型在训练组、内部验证组、外部验证组中对Ki-67 表达的预测效能、准确度均最佳,AUC分别为 0.983、0.930、0.925,预测准确度分别为 92.77%、88.14%、87.77%.Efficientnet 模型的预测敏感度最佳,Efficientnetv2 模型的预测特异度最佳,但两者准确度均低于其他模型.注意力热图显示模型可以从矩形兴趣区(ROI)中正确识别肿瘤区域,合理解释模型的决策逻辑.结论 基于增强CT的深度学习模型具有良好的稳定性和诊断效能,是一种无创预测GIST Ki-67 表达的潜在方法.
...不再出现此类内容
编辑人员丨2024/4/27
-
18F-FDG PET图像联合可解释的深度学习影像组学模型对原发性帕金森病和非典型性帕金森综合征的鉴别诊断
编辑人员丨2024/4/27
目的 探究 18F-FDG PET图像结合可解释的深度学习影像组学(IDLR)模型在原发性帕金森病(IPD)和非典型性帕金森综合征鉴别诊断中的应用价值.资料与方法 本横断面研究纳入 2015 年 3 月—2023 年 2 月复旦大学附属华山医院帕金森病PET成像基准数据库330 例帕金森病患者的 18F-FDG PET图像,其中IPD 211例、进行性核上性麻痹(PSP)59 例、多系统萎缩(MSA)60例;包括2个队列(训练组270例和测试组 60例).采集所有受试者的 18F-FDG PET图像及临床信息并进行比较.开发一种 IDLR 提取特征指标,在影像组学特征的监督下从神经网络提取器收集的特征中筛选 IDLR 特征,并在测试组中构建二分类支持向量机模型,分别计算构建的 IDLR 模型、传统影像组学模型、标准化摄取值比值模型、深度学习模型在IPD/PSP/MSA组间两两分类的模型性能指标与曲线下面积.采用 100 次 10 折交叉验证在 2 个队列中进行独立分类与测试.通过特征映射展示大脑相关感兴趣区,使用梯度加权类激活图突出大脑中最相关的信息并可视化,检查不同疾病组的模型输出热力图,并将其与临床诊断位置进行比较.结果 IDLR 模型在不同帕金森综合征患者中分类效果最好,测试组中的曲线下面积(MSA与IPD 0.935 7,MSA与PSP 0.975 4,IPD与PSP 0.982 5)优于其他模型(影像组学模型:Z=1.31~2.96,P均<0.05;标准化摄取值比值模型:Z=1.22~3.23,P均<0.05).筛选后的IDLR特征映射的影像组学感兴趣区与梯度加权类激活图切片热力图可视化高度一致.结论 IDLR模型在 18F-FDG PET图像中具备对IPD和非典型性帕金森综合征的鉴别诊断潜力.
...不再出现此类内容
编辑人员丨2024/4/27
-
基于深度学习的眼科超声图像智能辅助诊断方法研究
编辑人员丨2023/12/9
目的:提出一种基于深度学习的眼科超声图像智能辅助诊断方法,以为眼科疾病的智能化临床诊断提供辅助分析.方法:首先,建立眼科超声图像数据集,在数据集上完成ResNet-50、DenseNet-121和MobileNet 3种网络模型的训练,并通过准确率、宏平均精确度、宏平均敏感度、宏平均F1值以及AUC值评估模型的分类性能,通过模型文件大小和检测测试集图像的平均用时评估模型的实时性能,选出最合适的眼科超声图像智能辅助诊断模型.然后,通过梯度加权类激活映射方法实现图像异常组织区域的热力图可解释性分析.最后,基于PyQt工具包完成眼科超声图像智能辅助诊断软件开发.结果:与ResNet-50和DenseNet-121模型相比,MobileNet模型整体性能较优,准确率、宏平均精确度、宏平均敏感度、宏平均F1值、AUC值分别为0.948 5、0.926 6、0.930 5、0.928 1和0.995 8,模型文件大小和检测平均用时分别为56.69 MiB和0.089 0 s.设计的眼科智能超声辅助诊断软件能够实现眼科超声图像的智能识别和热力图可解释性分析.结论:基于深度学习的眼科超声图像智能辅助诊断方法可以准确地识别眼科超声图像,能够满足眼科疾病临床诊断需求.
...不再出现此类内容
编辑人员丨2023/12/9
-
基于深度卷积神经网络的Barrett食管内镜图片分类模型的建立
编辑人员丨2023/8/5
目的·利用深度卷积神经网络算法,构建Barrett食管内镜图片分类模型并评估其分类能力.方法·收集苏州大学附属第一医院消化内镜中心及HyperKvasir数据库中的内镜下食管图片共806张,其中正常食管图片412张、Barrett食管图片394张.随机将所有图片分为训练集(85%)与验证集(15%).利用于ImageNet数据库进行预训练的4种深度卷积神经网络[Xception、NASNet Large(NASNetL)、ResNet50V2(ResNet)及 BigTransfer(BiT)],分别在训练集中进行迁移学习,建立Barrett食管内镜图片分类模型,并使用梯度加权分类激活映射对该4个模型的分类结果进行可视化解释.随后,于验证集中评价模型的分类能力.同时,收集高、低年资医师对验证集数据的分类结果,将其与模型的分类结果进行对比,进一步评估模型的分类能力.结果·成功构建了基于深度卷积神经网络的Barrett食管内镜图片的4个分类模型.利用梯度加权分类激活映射,以热力图形式实现了对模型分类结果的可视化解释.在验证集数据中,各模型均拥有较高的分类准确性与精确性,其平均分类准确性为0.852,平均分类精确性为0.846.NASNetL模型相较其余3种模型,拥有最高分类准确性(0.873)及最高分类精确性(0.867),是表现最优的模型.该模型对Barrett食管内镜图片的分类能力近似高年资医师,其分类准确性略低于高年资医师(0.881)而高于低年资医师(0.855);同时,该模型与高年资医师(Kappa=0.712,P=0.000)、低年资医师(Kappa=0.695,P=0.000)均具有较好的分类一致性.结论·利用深度卷积神经网络迁移学习构建的Barrett食管内镜图片分类模型具有较好的分类能力.
...不再出现此类内容
编辑人员丨2023/8/5
