-
基于ConvNeXt模型的胸部X线图像的疾病分类与可视化
编辑人员丨1周前
目的 胸部X线是临床实践中常见的胸部疾病筛查和诊断方式.由于放射科医生长时间阅片容易视觉疲劳以及医疗资源分配不均衡的问题,导致误诊和漏诊的情况时有发生.针对这一问题,本研究运用深度学习技术,提出了一个基于ConvNeXt模型的胸部X线图像的疾病检测方法,旨在提高胸部疾病诊断准确度、减轻误诊风险并提高医生工作效率.方法 利用大规模公开胸部X线图像数据集ChestX-ray14训练ConvNeXt模型,该模型在ResNet模型的基础上,融合了视觉Transformer结构的优势,可以有效提高模型的特征提取和识别能力,同时以AUC(ROC曲线下方的面积)作为模型性能的评价指标,与已有的分类模型CheXNet、ResNet及Swin Transformer进行了对比.此外,通过引入Grad-CAM可视化方法,利用卷积神经网络特征图的梯度信息生成胸部X线图像的类激活热力图,实现对病灶区域的定位,从而提高医生的诊断效率.结果 基于ConvNeXt模型的诊断方法在识别14种胸部疾病时平均AUC值可达0.842,特别在识别积液(AUC值为0.883)、水肿(AUC值为0.902)和疝气(AUC值为0.942)等疾病时表现较为令人满意.结论 本文提出的方法在胸部X线图像的疾病检测中具有较好的性能,是一种对胸部X线图像进行胸部疾病诊断进而协助医生提高工作效率的有益尝试.
...不再出现此类内容
编辑人员丨1周前
-
基于生成对抗网络的放疗剂量分布研究
编辑人员丨1周前
目的:探讨利用深度学习在图像处理上的优势与放疗结合是否会使放疗过程更加智能化。方法:生成对抗网络(GAN)是一种利用神经网络的生成模型,输入相关特征可生成高质量剂量分布图像。先使用随机无条件GAN进行模拟分布数据的验证,再使用条件GAN(cGAN)训练肿瘤病例的DICOMRT数据,利用靶区和器官轮廓信息直接生成剂量分布图。结果:对于理想数据验证,GAN生成模拟分布效果优良,通过提取靶区轮廓和真实剂量切片数据使用cGAN训练,得到病例计划靶体积和危及器官的剂量分布。结构中预测值与真实剂量之间最大值和平均值的绝对误差评价表现为[3.57%,3.37%](计划靶体积)、[2.63%,2.87%](脑)、[1.50%,2.70%](临床靶体积)、[3.87%,1.79%](大体肿瘤体积)、[3.60%,3.23%](危及器官-1)、[4.40%,3.13%](危及器官-2)。结论:利用GAN模型可以生成模拟分布数据,同时结合先验知识的cGAN模型可以建立靶区和器官信息与剂量分布之间的关系。通过输入靶区和器官轮廓信息直接快速生成对应的剂量分布,是剂量预测的一种有效尝试。
...不再出现此类内容
编辑人员丨1周前
-
基于生物阻抗和深度学习技术的甲状腺组织分类模型研究
编辑人员丨1周前
目的:近年来甲状腺癌发病率显著提高,超声和细针穿刺活检等术前检查不断完善,但仍存在诊断性手术及过度诊疗的现象。本研究旨在探讨利用生物阻抗及深度学习技术对甲状腺组织进行分类的可行性。方法:为了提高分类的准确性,我们设计一套适合甲状腺组织的电阻抗测量系统,采集来自321例患者的331个离体甲状腺标本共1 340项数据集。随后,建立一个基于多特征的一维卷积神经网络(one dimensional convolution neural, 1D-CNN)结合长短期记忆网络(long short-term memory, LSTM)混合模型对甲状腺组织进行分类。其中80%(1 072/1 340)的数据用于训练,另外20%(268/1340)用于测试。采用受试者工作特征曲线(receiver operating characteristic curve,ROC)、宏平均ROC、微平均ROC及曲线下面积(area under the curve,AUC)等指标对甲状腺组织分类模型进行评价。此外,用敏感性、特异性、阳性预测值、阴性预测值和约登指数比较该分类模型与超声的诊断价值。结果:甲状腺组织两分类(恶性/非恶性组织)模型的ROC-AUC=0.94,总体准确率达到91.4%。进一步建立三分类(恶性/良性/正常组织)模型,其中正常、良性和恶性组的ROC-AUC分别为0.91、0.85和0.92,微平均ROC-AUC和宏平均ROC-AUC分别为0.91和0.90。且与超声相比,甲状腺组织分类模型具有更高的特异性。结论:本研究基于生物阻抗及CNN-LSTM建立的甲状腺组织分类模型具有较高的准确率和较好的稳定性,该技术有望在未来的临床应用中提供有用的补充信息,从而有助于甲状腺疾病的治疗决策和管理。
...不再出现此类内容
编辑人员丨1周前
-
基于计算机深度学习经皮椎板间脊柱内镜手术视野的多元素识别网络模型的研究
编辑人员丨1周前
目的:探讨基于计算机深度学习经皮椎板间脊柱内镜下手术视野的多元素识别网络模型的研究及应用价值。方法:回顾性队列研究。纳入2021年9月—2022年3月徐州中心医院脊柱外科行经皮椎板间脊柱内镜下腰椎间盘切除术的腰椎间盘突出患者62例,其中男34例、女28例,年龄27~77(50.0±14.7)岁。收集患者内镜手术视频,选取4 840张经皮脊柱内镜手术视野图片(包含各种组织结构及手术器械)建立图片数据集,按照2∶1∶2分为训练集、验证集和测试集,开发8种基于实例分割的卷积神经网络模型(模型的分割头部分别为Solov2、CondInst、Mask R-CNN及Yolact,主干网络分别设置为ResNet101、ResNet50)。采用边框检测、轮廓分割的均值平均精度(mAP)及图像实时识别的每秒帧数(FPS)来衡量各模型对(神经、黄韧带、髓核等)解剖结构,以及(内镜钳、高速金刚石磨钻等)手术器械的分类、定位及图像实时识别的性能。结果:(1)8种卷积神经网络模型在图像边界框检测的精度方面由高到低依次为Mask R-CNN(ResNet101)、CondInst(ResNet101)、CondInst(ResNet50)、Mask R-CNN(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50),其中,Mask R-CNN(ResNet101)模型精度最高(mAP=68.7%),Yolact(ResNet50)精度最低(mAP=49.7%)。(2)8种卷积神经网络模型在图像轮廓分割的精度方面由高到低依次Solov2(ResNet101)、Solov2(ResNet50)、Mask R-CNN(ResNet101)、CondInst(ResNet101)、Mask R-CNN(ResNet50)、CondInst(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50)。其中,Solov2(ResNet101)精度最高(mAP=70.1%),Yolact(ResNet50)精度最低(mAP=55.2%)。(3)在图像实时识别方面,Yolact模型速度最快,其次为Solov2模型、Mask R-CNN模型,CondInst(ResNet101)速度最慢。结论:基于计算机深度学习的经皮椎板间脊柱内镜手术视野多元素识别模型可以实时识别和跟踪解剖组织及手术器械。其中,Mask R-CNN(ResNet101)模型可用作脊柱内镜操作虚拟教育工具,Solov2(ResNet101)模型可应用于脊柱内镜术中实时辅助系统。
...不再出现此类内容
编辑人员丨1周前
-
深度学习用于影像学预测肺腺癌浸润性的研究进展
编辑人员丨1周前
基于影像学的早期肺腺癌浸润性预测,对于肺结节的临床管理、手术方法和预后评估具有重要意义。相比于基于特征构建的统计学方法和影像组学方法,以卷积神经网络为基础的深度学习方法用于预测肺腺癌浸润性具有性能高、可靠性强、自动勾画等优势,有很好的应用前景。目前已有研究对多模态学习、浸润性分类、多任务处理、辅助临床、可解释性等领域进行了探索,并提高了模型的预测准确度。随着融合模态的丰富、多中心大样本的建立、小样本学习方法的应用以及前瞻性研究的开展,深度学习将在肺腺癌浸润性的预测中发挥更重要的作用。
...不再出现此类内容
编辑人员丨1周前
-
基于结构磁共振的深度学习模型评估肝硬化及肝性脑病患者的脑龄改变
编辑人员丨1周前
目的:基于深度学习及全脑T 1高分辨MRI建立脑龄预测模型,依此探讨肝硬化及肝性脑病(HE)患者大脑衰老趋势,并试图揭示肝硬化及HE加速大脑衰老的具体损伤区域。 方法:横断面研究。从来自全球的8个公开数据库中选取3 609名健康个体的全脑T 1高分辨MRI数据作为训练集搭建基于3D全卷积神经网络的脑龄预测模型。通过计算实际年龄和预测脑龄间平均绝对误差(MAE)和皮尔逊相关系数( r)、决定系数( R 2)来评价模型的预测效果。再从公开数据库中的人类连接组计划中制作一个测试集( n=555)来测试模型的准确性。招募2013年12月至2020年5月于天津市第一中心医院就诊的136例肝硬化患者作为病例组(无HE肝硬化组79例和伴HE肝硬化组57例),同期向社会招募70名健康者作为健康对照组。计算所有受试者的预测脑龄与实际年龄差值(Brain-PAD)、数字连接试验-A(NCT-A)和数字-符号试验(DST)评分,评估健康对照组、无HE肝硬化组及伴HE肝硬化组3组间大脑衰老程度及认知功能,并采用网络遮挡敏感性分析来评估各脑区在脑龄预测中的重要性。 结果:训练集中该脑龄预测模型的实际年龄和预测脑龄间MAE=2.85, r=0.98, R2=0.96;测试集中,MAE=4.45, r=0.96, R2=0.92。在本地数据集中,健康对照组该模型的MAE=3.77, r=0.85, R2=0.73。两组肝硬化患者NCT-A用时均长于健康对照组,而DST得分则均低于健康对照组,差异均有统计学意义(均 P<0.001)。健康对照组Brain-PAD为(0.8±4.5)岁,无HE组Brain-PAD为(6.9±8.1)岁,伴HE组为(10.2±7.7)岁,3组间差异有统计学意义( P<0.001),且两两组间比较差异亦均有统计学意义(均 P<0.05)。肝硬化患者视觉网络、躯体运动网络的预测重要性占比增加,伴HE组较无HE组占比进一步增加。 结论:肝硬化患者的认知功能减低,大脑加速衰老,这些改变在HE患者中更加明显。各脑区在预测脑年龄中的重要性差异为识别肝硬化和HE加速大脑衰老的特定损伤区域提供了新思路。
...不再出现此类内容
编辑人员丨1周前
-
基于深度学习的快速磁敏感加权成像评估急性缺血性卒中
编辑人员丨1周前
目的:探讨基于深度学习的快速磁敏感加权成像(SWI)评估急性缺血性卒中(AIS)的价值。方法:回顾性分析2019年1月至2021年1月在解放军总医院第一医学中心接受MR检查并行SWI序列扫描且发病24 h内的AIS患者118例,其中男75例、女43例,年龄23~100(66±14)岁。采用MATLAB的randperm函数将118例患者以8∶2的比例分为训练集96例,测试集22例。另外收集MR-STARS研究招募的同一中心的47例AIS患者作为外部验证集,其中男38例、女9例,年龄16~75(58±12)岁。将SWI图像和滤波相位图像合并为复值图像作为全采样参考图像。对全采样参考图像进行回顾性欠采样以模拟实际欠采样过程,获得欠采样SWI图像,欠采样倍数为5倍,可节省80%的扫描时间;然后基于复值卷积神经网络(ComplexNet)的深度学习模型重建快速SWI数据。采用组内相关系数(ICC)或Kappa检验比较全采样SWI和基于ComplexNet的快速SWI的图像质量评分一致性及检出AIS患者磁敏感血栓征(SVS)、微出血、深部髓质静脉(DMVs)不对称的一致性。结果:测试集中全采样SWI图像质量的评分为(4.5±0.6)分,基于ComplexNet的快速SWI图像质量评分为(4.6±0.7),两者一致性较好(ICC=0.86, P<0.05);全采样SWI与基于ComplexNet的快速SWI检出AIS患者SVS(Kappa=0.79, P<0.05)、微出血(Kappa=0.86, P<0.05)、DMVs不对称(Kappa=0.82, P<0.05)一致性较好。外部验证集中,全采样SWI图像质量的评分为(4.1±1.0)分,基于ComplexNet的快速SWI图像质量的评分为(4.0±0.9)分,两者一致性较好(ICC=0.97, P<0.05);全采样SWI与基于ComplexNet的快速SWI检出AIS患者SVS(Kappa=0.74, P<0.05)、微出血(Kappa=0.83, P<0.05)和DMVs不对称(Kappa=0.74, P<0.05)的一致性较好。 结论:深度学习技术可显著加快SWI速度,且基于ComplexNet的快速SWI与全采样SWI的图像质量及检出AIS征象的一致性好,可应用于AIS患者的影像学评估。
...不再出现此类内容
编辑人员丨1周前
-
MobileNet对床旁胸部X线平片分类研究的价值
编辑人员丨1周前
目的:探讨基于MobileNet的深度学习对床边胸部X线平片(胸片)分类诊断及提高工作效率的价值。方法:回顾性分析2017年1月至2022年12月在常州市第二人民医院接受床旁胸部X检查患者的胸片6 320张,正常组885张、肺炎组1 927张、胸腔积液组373张、肺炎合并胸腔积液组3 135张。选择其中350幅图像作为验证集,其剩余图像按照8∶2比例使用简单随机法分为训练集4 775张和测试集1 195张。采用两种轻量化卷积神经网络模型MobileNetV1和MobileNetV2构建床旁胸片分类模型,并基于此设计了两种微调策略,共生成了4个模型,分别是MobileNetV1_False(V1_False)、MobileNetV1_True(V1_True)、MobileNetV2_False(V2_False)、MobileNetV2_True(V2_True)。4个模型分别对所有胸片进行第一阶段和第二阶段分类,第一阶段建立二分类模型,即将所有胸片分为正常组和病变组,第二阶段建立四分类模型,即将所有胸片分为正常组、肺炎组、胸腔积液组和肺炎合并胸腔积液组。采用准确度(Ac)、精确度(Pr)、召回率(Rc)、F1评分(F1)和受试者操作特征曲线下面积(AUC)评估模型性能。结果:第一阶段和第二阶段,V1_True和V2_True模型在训练集和验证集中的Ac、Pr、Rc、F1均高于V1_False和V2_False模型;且V1_True模型的分类效果优于其他模型。验证集中V1_True模型在第一阶段和第二阶段的分类Ac[分别为95.71%(335/350)和93.43%(327/350)],均高于放射科主治医师的分类Ac[第一阶段:90.29%(316/350);第二阶段:87.14%(305/350)]。V1_True模型对验证集350张床边胸片的识别时间(平均17 s)明显少于放射科主治医师(平均300 min)。结论:V1_True模型是对床边胸片分类的最优MobileNet模型,其应用于临床可以帮助临床医师及时、准确地从床边胸片识别患者的肺部病变信息,亦有利于提高放射科的工作效率。
...不再出现此类内容
编辑人员丨1周前
-
基于功能磁共振成像与深度学习的双相障碍辅助诊断模型
编辑人员丨1周前
目的:基于功能磁共振成像(functional magnetic resonance imaging,fMRI)数据构建深度学习分类模型,以辅助诊断双相障碍患者,并分析双相障碍关键影像学特征,提高双相障碍识别率。方法:收集符合 DSM-Ⅳ诊断标准的双相障碍患者146例(患者组)以及健康对照者234名(对照组),进行fMRI扫描。采用局部一致性(regional homogeneity,ReHo)和低频振幅2种方法分析fMRI数据。基于ReHo和低频振幅指标分别采用深度神经网络(deep neural networks,DNN)和双通道卷积神经网络(dual-channel convolution neural networks,DCNN)构建分类模型,并通过比较分类准确率、受试者工作特征曲线曲线下面积获得最佳分类模型;采用准确率较高的影像指标对基于自动解剖标记图谱(anatomical automatic labeling,AAL)的90个大脑区域使用支持向量机(support vector machine,SVM)算法构建基于单个脑区的分类模型,并通过比较准确率指标,识别双相障碍的关键影像学特征。结果:基于ReHo和低频振幅指标构建的DCNN分类模型的准确率分别为75.3%和72.6%,优于同指标下准确率分别为67.1%和65.1%的DNN分类模型,且使用ReHo指标构建的分类模型准确率相对优于低频振幅指标;同时基于SVM分类模型使用ReHo指标显示枕叶(枕中回、枕上回、舌回)、海马、丘脑等为识别双相障碍的关键脑区,且准确率均高于65.0%。结论:基于ReHo指标的DCNN分类模型可用于双相障碍的辅助诊断;同时枕叶、海马、丘脑可能是辅助识别双相障碍的关键影像学特征脑区。
...不再出现此类内容
编辑人员丨1周前
-
基于肺区CT图像最大密度投影与深度卷积网络的慢阻肺识别模型的构建及意义
编辑人员丨1周前
目的:基于肺区CT图像最大密度投影(MIP)与深度卷积神经网络(CNN)构建慢性阻塞性肺疾病(慢阻肺)识别模型,并探讨其意义。方法:选取2010年1月—2021年5月就诊于大连医科大学附属第二医院的符合入组标准的研究对象共201例,其中慢阻肺组101例,健康对照组100例。研究对象均进行胸部薄层CT图像扫描及肺功能测试。首先,获取所有CT图像序列肺区的MIP图像;其次,以MIP图像为输入,基于改进的残差网络(ResNet)构建慢阻肺识别模型;最后,考察不同层数的ResNet模型对性能的影响。应用准确率、灵敏度、特异度、阳性预测值、阴性预测值、受试者工作特征(ROC)曲线及其下面积(AUC)评估网络的识别效能。结果:ResNet26的慢阻肺识别准确率、灵敏度、特异度、阳性预测值、阴性预测值分别为76.1%、76.2%、76.0%、76.2%、76.0%,AUC为0.855(95% CI:0.799~0.901);ResNet50的慢阻肺识别准确率、灵敏度、特异度、阳性预测值、阴性预测值分别为77.6%、76.2%、79.0%、78.6%、76.7%,AUC为0.854(95% CI:0.797~0.900);ResNet26d的慢阻肺识别准确率、灵敏度、特异度、阳性预测值、阴性预测值分别为82.1%、83.2%、81.0%、81.6%、82.7%,AUC为0.885(95% CI:0.830~0.926)。 结论:本研究成功构建的基于肺区CT图像MIP与深度CNN的慢阻肺识别模型,可实现准确的慢阻肺识别,为慢阻肺早期筛查提供了一种有效工具。
...不再出现此类内容
编辑人员丨1周前