-
基于深度学习的乳腺超声应变弹性图像生成模型的应用研究
编辑人员丨1个月前
目的:探讨基于深度学习模型生成乳腺超声应变弹性图像的应用价值。方法:回顾性收集2019年5月至2022年6月在西京医院行乳腺超声检查的患者的超声图像共1336组,在神经网络中生成对抗网络(GAN)的基础上构建深度学习生成模型,使用训练集882组和验证集354组图像进行模型的训练和调整,另外100组测试集图像使用模型生成弹性图像,比较真实弹性图像和生成弹性图像的相似度。选取4位不同年资医师(高低年资医师各2名)比较两种弹性图像的差异。应用归一化互相关(NCC)值评价两种弹性图像的相似程度,并进行阅片医师真实性评分;基于Tsukuba 5分弹性评分标准,应用Kappa检验比较4位医师弹性评分的一致性,绘制ROC曲线评估不同医师分别结合两种弹性图像应用BI-RADS分类诊断乳腺病灶良恶性的效能。结果:测试集中两种弹性图像相似度的NCC平均值为0.70±0.08,中位数0.70,范围0.50~0.86。真实性评价所有医师得分为0.49,低年资医师得分0.45,高年资医师得分0.53,均接近0.50。比较4位医师弹性评分的一致性Kappa值,生成图像高于真实图像(Kappa值:0.61 vs 0.57)。每位医师分别结合两种弹性图像应用BI-RADS分类的ROC曲线下面积差异无统计学意义(P>0.05),除1名高年资医师的特异度(P=0.0196)和阳性预测值(P=0.021)外,所有医师的敏感度、特异度、阳性预测值、阴性预测值结果差异均无统计学意义(P均>0.05)。结论:基于深度学习构建的乳腺超声应变弹性图像生成模型,能够生成与真实弹性图像相似的弹性图像,并且生成图像在辅助诊断方面达到了与真实图像相近的临床价值。
...不再出现此类内容
编辑人员丨1个月前
-
CycleGAN、ACGAN在人工智能医疗器械数据增广中的应用
编辑人员丨2024/3/23
目的 探究人工智能医疗器械领域中使用循环生成对抗网络(Cycle-Consistent Generative Adversarial Networks,CycleGAN)和辅助分类生成对抗网络(Auxiliary Classification Generative Adversarial Network,ACGAN)进行数据增广的方法.方法 使用CycleGAN和ACGAN分别生成干扰图像和特定领域数据,对图像增加不规律的变换,对原始图像数据进行数据加工或应用生成对抗网络生成该领域所需的图像数据.结果 在医学影像数据集上评估了本文提出方法的性能,结果表明,CycleGAN和ACGAN可有效生成逼真的医学影像,从而用于训练机器学习模型.结论 该方法解决了人工智能领域图像数据不足的问题,保证了模型对该数据的不可见性,使后期模型评估结果更准确.
...不再出现此类内容
编辑人员丨2024/3/23
-
肺结节检测与分类的深度学习方法综述
编辑人员丨2023/8/6
肺癌是死亡率最高的恶性肿瘤,肺结节早期确诊是降低肺癌死亡率的关键.计算机辅助诊断技术在肺结节早期确诊方面被认为具有超越人类专家的潜力.而基于深度学习技术的肺结节检测和分类可通过自我学习而不断提高诊断的准确率,是实现计算机辅助诊断的重要手段.本文首先系统阐述了二维卷积神经网络(2D-CNN)、三维卷积神经网络(3D-CNN)和更快速的区域卷积神经网络(Faster R-CNN)技术在肺结节检测方面的应用,然后阐述了2D-CNN、3D-CNN、多流多尺度卷积神经网络(MMCNN)、深度卷积生成对抗网络(DCGAN)和迁移学习技术在肺结节分类中的应用,最后针对肺结节的检测与分类中不同的深度学习方法进行了综合比较分析.
...不再出现此类内容
编辑人员丨2023/8/6
-
基于时序心脏模型样本均衡方法的心律失常分类
编辑人员丨2023/8/5
心律失常自动分类作为计算机在临床上的重要应用,可以有效辅助心血管疾病的诊断,但实验中样本不均衡问题严重影响分类精度.目前用于解决样本不均衡问题的主流方法为对抗神经网络,但存在训练不稳定和模式崩溃等问题,且仅依靠数据进行学习,缺乏一定的生理意义.因此提出基于时序心脏模型的样本均衡方法生成心电数据,在2018年中国生理信号挑战赛提供的12导联数据集上进行实验,采用深度残差网络作为分类模型分别对每个导联进行训练,通过极端梯度提升算法实现导联融合.经过样本均衡后,各类F1分数均有提升,左束支阻滞(LBBB)、ST段降低(STD)、ST段抬升(STE)的改善尤其显著,分别由扩增前的0.706、0.684、0.524提升至0.832、0.809、0.618.为验证本方法的通用性,对PTB数据集进行独立测试,分类准确率达到98.64%.实验结果表明,基于时序心脏模型生成仿真数据能够有效改善实验样本不均衡现象.
...不再出现此类内容
编辑人员丨2023/8/5
