-
深度学习在新型冠状病毒肺炎的智能诊断应用的研究进展
编辑人员丨6天前
新型冠状病毒肺炎(corona virus disease 2019,COVID-19)具有高传染性,严重威胁人民群众的生命安全,快速筛查可以实现快速治疗、防止肺炎进展.目前COVID-19检测诊断方法的金标准为逆转录聚合酶链式反应(reverse transcription-polymerase chain reaction,RT-PCR),但是由于核酸检测存在耗时且假阴性率偏高的问题,而影像医生对医学图像的诊断存在主观性且工作量巨大,因此借助人工智能(artificial intelligence,AI)技术对实现COVID-19的快速诊断至关重要.随着AI在医学领域的成功应用,深度学习技术成为辅助诊断新型冠状病毒肺炎的有效方法.近年来许多学者使用深度学习技术来构建对医学图像进行智能诊断的模型,本文的主要内容就是对这类模型进行总结和分析,介绍了分割肺部区域的模型、实现二分类或多分类的分类模型以及模型在临床上的应用.与此同时,在文章中分析了COVID-19患者的影像学特点,COVID-19患者多双肺受累,其中磨玻璃影是最常见的影像征象.对COVID-19研究的最新进展也进行了介绍,主要是关于提高AI模型准确性的开发和"长新冠"综合征的相关研究.因此,在新型冠状病毒肺炎常态化管理下,模型准确性的提高可以借助数据集的扩大或模型结构轻量化等方面实现;"长新冠"综合征作为一个新的研究领域,学者可以在临床症状、预后随访和结合深度学习技术等方面进行进一步的研究.
...不再出现此类内容
编辑人员丨6天前
-
MobileNet对床旁胸部X线平片分类研究的价值
编辑人员丨6天前
目的:探讨基于MobileNet的深度学习对床边胸部X线平片(胸片)分类诊断及提高工作效率的价值。方法:回顾性分析2017年1月至2022年12月在常州市第二人民医院接受床旁胸部X检查患者的胸片6 320张,正常组885张、肺炎组1 927张、胸腔积液组373张、肺炎合并胸腔积液组3 135张。选择其中350幅图像作为验证集,其剩余图像按照8∶2比例使用简单随机法分为训练集4 775张和测试集1 195张。采用两种轻量化卷积神经网络模型MobileNetV1和MobileNetV2构建床旁胸片分类模型,并基于此设计了两种微调策略,共生成了4个模型,分别是MobileNetV1_False(V1_False)、MobileNetV1_True(V1_True)、MobileNetV2_False(V2_False)、MobileNetV2_True(V2_True)。4个模型分别对所有胸片进行第一阶段和第二阶段分类,第一阶段建立二分类模型,即将所有胸片分为正常组和病变组,第二阶段建立四分类模型,即将所有胸片分为正常组、肺炎组、胸腔积液组和肺炎合并胸腔积液组。采用准确度(Ac)、精确度(Pr)、召回率(Rc)、F1评分(F1)和受试者操作特征曲线下面积(AUC)评估模型性能。结果:第一阶段和第二阶段,V1_True和V2_True模型在训练集和验证集中的Ac、Pr、Rc、F1均高于V1_False和V2_False模型;且V1_True模型的分类效果优于其他模型。验证集中V1_True模型在第一阶段和第二阶段的分类Ac[分别为95.71%(335/350)和93.43%(327/350)],均高于放射科主治医师的分类Ac[第一阶段:90.29%(316/350);第二阶段:87.14%(305/350)]。V1_True模型对验证集350张床边胸片的识别时间(平均17 s)明显少于放射科主治医师(平均300 min)。结论:V1_True模型是对床边胸片分类的最优MobileNet模型,其应用于临床可以帮助临床医师及时、准确地从床边胸片识别患者的肺部病变信息,亦有利于提高放射科的工作效率。
...不再出现此类内容
编辑人员丨6天前
-
基于眼底彩色照相的常见眼底疾病智能辅助诊断轻量化模型研究
编辑人员丨6天前
目的:观察基于眼底彩色照相的常见眼底疾病六分类智能辅助诊断轻量化模型的诊断价值。方法:应用研究。采集南京医科大学附属眼科医院和浙江省数理医学学会智能眼科数据库的2 400张彩色眼底像数据集,该数据集经脱敏处理及眼底病专科医师标注,包括糖尿病视网膜病变、青光眼、视网膜静脉阻塞、高度近视、老年性黄斑变性、正常眼底像各400张。训练时使用迁移学习方法,将经典分类模型VGGNet16、ResNet50、DenseNet121和轻量化分类模型MobileNet3、ShuffleNet2、GhostNet在ImageNet数据集上训练获得的参数迁移到六分类常见眼底疾病智能辅助诊断模型作为初始化参数,进行训练并获得最新模型。选取临床患者彩色眼底像1 315张作为测试集。评价指标包括灵敏度、特异性、准确度(Accuracy)、F1-Score和诊断试验的一致性(Kappa值);比较不同模型的受试者工作特征曲线以及曲线下面积值。结果:与经典分类模型比较,3种轻量化分类模型的储存大小和参数量均显著降低,其中ShuffleNetV2平均每张识别时间较经典分类模型VGGNet16快438.08 ms。3个轻量化分类模型的准确度均>80.0%;Kappa值均>70.0%,具有显著一致性;对正常眼底图像诊断的灵敏度、特异性、F1-Score均≥98.0%;宏观F1分别为78.2%、79.4%、81.5%。结论:基于眼底彩色照相的常见眼底疾病智能辅助诊断轻量化模型识别准确率高、速度快;储存大小和参数量均较经典分类模型显著降低。
...不再出现此类内容
编辑人员丨6天前
-
基于改进YOLOv7模型的肺结节检测
编辑人员丨6天前
目的:设计一种基于改进YOLOv7模型的肺结节检测算法。方法:首先,在PAFPN结构中,引入轻量化上采样算子CARAFE,以提高肺结节检测精度。然后添加一个增强型小尺度检测层,增强对于小目标肺结节的检测性能,同时可减少训练的参数量,并降低模型复杂程度。在保证各项参数指标不变的情况下,对YOLOv5原模型算法和添加增强型小尺度检测层的YOLOv5模型算法、YOLOv7原模型算法和改进后YOLOv7模型算法进行消融实验;对改进点训练集总损失进行比较;用YOLOv7原模型算法和改进后YOLOv7模型算法对2张测试集图片进行推理,将其与近年来其他经典的肺结节检测算法Mask R-CNN、YOLOv3、YOLOv5s和YOLOv7对2张测试集图片进行比较。结果:添加增强型小尺度检测层的YOLOv5模型算法精度比YOLOv5原模型算法提升了1.3%,召回率提高了3.5%,平均精度(mAP)上升了3.1%,参数量减少了25.3%,网络的复杂程度也有所减少。改进后YOLOv7模型算法mAP提高1.8%,参数量减少28.3%,模型复杂程度下降5 G。添加增强型小尺度检测层与替换特诊融合网络为轻量化上采样算子CARAFE算法在训练过程中的总损失最小。YOLOv7原模型算法精度较高,但是仍然出现了漏检与假阳性的情况,与预测图片1比较,YOLOv7原模型出现了漏检的情况;与预测图片2比较,YOLOv7原模型出现了假阳性的情况。而改进后YOLOv7模型对漏检情况和假阳性均得到了很好的改善;与经典模型算法比较,改进后YOLOv7模型算法的精度、召回率和mAP最高,分别为91.7%、89.1%、93.5%。结论:改进YOLOv7模型具有更强的特征表达能力,参数量更少,能够有效提高肺结节的检测精度。
...不再出现此类内容
编辑人员丨6天前
-
基于深度学习的视网膜眼底图像的渗出分割方法研究
编辑人员丨6天前
目的:探索基于深度学习方法自动分割彩色眼底图像上糖尿病患者视网膜渗出特征的可行性。方法:应用研究。基于印度糖尿病视网膜病变图像数据集(IDRID)模型的U型网络,将深度残差卷积引入到编码和解码阶段,使其能够有效提取渗出深度特征,解决过拟合和特征干扰问题,同时提升模型的特征表达能力和轻量化性能。此外,通过引入改进的上下文提取模块,使模型能捕捉更广泛的特征信息,增强对视网膜病灶的感知能力,尤其是提升捕捉微小细节和模糊边缘的能力。最后,引入卷积三重注意力机制,使模型能自动学习特征权重,关注重要特征,并从多个尺度提取有益信息。通过查准率、查全率、Dice系数、准确率和灵敏度来评估模型对彩色眼底图像上糖尿病患者自动视网膜渗出特征的检测与分割能力。结果:应用本文研究方法后,改进模型在IDRID数据集上的查准率、查全率、相似系数、准确率、灵敏度、分别达到81.56%、99.54%、69.32%、65.36%、78.33%。与原始模型相比,改进模型的查准率和Dice系数分别提升了2.35%和3.35%。结论:基于U型网络的分割方法能自动检测并分割出糖尿病患者眼底图像的视网膜渗出特征,对于辅助医生更准确地诊断疾病情况具有重要意义。
...不再出现此类内容
编辑人员丨6天前
-
基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型
编辑人员丨2024/7/27
以鲫(Carassius auratus)常见病害为例,从实际生产角度出发,提出了一种基于机器视觉和改进YOLOv5s的鲫病害轻量级无损检测模型,可实现鲫鱼体多种病害的同步无损快速检测.首先,通过利用Shuf-fleNetV2替换YOLOv5s主干网络,对模型进行轻量化改进;在此基础上,耦合一种基于卷积块的注意力机制[Convolutional block attention module(CBAM)]提高模型精准度;最后,结合空洞空间卷积池化金字塔[Atrous spatial pyramid pooling(ASPP)]提升模型鲁棒性.通过在自制鲫病害数据集上测试可知,文章所提出模型病害检测精确率可达92.0%,模型体积仅为14400 kb,优于当前相关主流模型(最高精确率为83.6%,最小体积为15750 kb),为水产养殖鱼类病害无损快速检测提供了技术支撑.
...不再出现此类内容
编辑人员丨2024/7/27
-
基于深度学习的手术器械视觉图像高斯与椒盐噪声去除方法研究
编辑人员丨2024/6/22
目的:为消除手术器械视觉图像中的高斯与椒盐噪声,并恢复图像的细节特征,提出一种基于深度学习的手术器械视觉图像高斯与椒盐噪声去除方法.方法:首先,构建由多特征融合编码器解码器网络、注意力引导网络和细节恢复渐进式网络3个部分组成的轻量级多任务渐进式网络,使用多特征融合编码器解码器网络预测视觉图像中的噪声信息,并从原图像中去除,使用注意力引导网络进一步去除图像中的残留噪声,使用细节恢复渐进式网络对去噪图像的底层细节特征进行恢复.其次,对轻量级多任务渐进式网络进行轻量化设计,将细节恢复渐进式网络中的部分常规卷积替换为深度可分离卷积.最后,在公开的CBSD68、Kodak24数据集和自建的手术器械噪声数据集上进行去噪实验,比较基于轻量级多任务渐进式网络的去噪方法与经典去噪方法的去噪效果,ResNet-18模型和ResNet-34模型对采用轻量级多任务渐进式网络去噪后的图像的分类准确率,并分析轻量化设计前后的算力和内存占用情况.结果:在公开数据集上,所提出的方法较经典的去噪方法取得了更好的去噪效果.在手术器械噪声数据集上,ResNet-18模型和ResNet-34模型对采用轻量级多任务渐进式网络去噪后的图像分类准确率更高.经过轻量化设计的去噪方法的参数量和浮点运算数(floating point operations,FLOPs)分别减少了约27.27%和29.81%.结论:基于深度学习的手术器械视觉图像高斯与椒盐噪声去除方法具有优秀的手术器械视觉图像去噪性能,且具有更少的算力消耗和内存占用.
...不再出现此类内容
编辑人员丨2024/6/22
-
基于卷积神经网络的采血管铝箔帽状态检测方法
编辑人员丨2024/4/27
目的 针对医学实验室自动化生化免疫检验流水线识别准确率和识别速度要求极高、采血管类型众多、采血管铝箔帽状态复杂以及管壁挂液干扰严重的问题,提出一种基于卷积神经网络的采血管铝箔帽状态检测方法,以实现采血管铝箔帽状态的识别.方法 首先采用轻量化的模型设计思想,通过减少模型的深度降低参数量和计算量,同时引入通道注意力机制,以提高样本特征的提取能力;其次采用Focal Loss损失函数解决难例样本挖掘的问题,进一步优化模型的性能;最后,通过教师网络指导学生网络进行知识蒸馏,得到最终轻量化的小模型.结果 对学生网络模型的轻量化设计使该检测方法适用于资源有限的边缘计算设备,模型的参数量仅为0.354 M,计算量为0.165 GFlops,对Jetson Nano设备的识别速度为3.42 ms,且其在复杂的采血管情况下,识别准确率可达100%.结论 本研究充分验证了该模型的轻量化、高效性和实用性,说明基于轻量化卷积神经分类网络模型的检测方法可准确识别采血管铝箔帽状态,是医学实验室自动化生化免疫检验流水线中采血管铝箔帽状态检测的解决方案.
...不再出现此类内容
编辑人员丨2024/4/27
-
面向人工耳蜗的改进Wave-U-Net算法
编辑人员丨2024/3/30
针对人工耳蜗在噪声环境下言语感知效果差,以及现有算法降噪能力不足的问题,本研究提出了一种改进的Wave-U-Net模型.通过采取轻量化卷积,引入注意力机制,改进损失函数,优化数据集结构,以提高人工耳蜗的降噪效果.使用短时客观可懂度(short-time objective intelligibility,STOI)、语音质量评估(perceptual evaluation of speech quality,PESQ)、浮点运算次数(floating point operations per second,FLOPs)和参数量(Params)对模型的降噪效果和复杂度进行了评估,分别达到0.81、2.75,0.83 G,1.04 M.实验结果表明,本研究算法在符合人工耳蜗产品规范的基础上,实现了明显的降噪效果,提高了人工耳蜗使用者在复杂噪声环境中的语音感知效果.本研究方法为人工耳蜗算法的改进提供了新的可能,可为听力受损患者提供更好的听觉感受.
...不再出现此类内容
编辑人员丨2024/3/30
-
基于深度学习框架的循环染色体异常细胞识别
编辑人员丨2024/1/20
目的 循环染色体异常细胞(circulating genetically abnormal cell,CAC)检测是一种无创或微创、敏感、经济的肿瘤早期诊断方法.荧光原位杂交(fluorescence in situ hybridization,FISH)通过计算荧光探针在细胞核内产生的增益,可以准确地检测CAC中基因异常的繁殖.然而,基于FISH的CAC识别存在细胞核重叠和荧光信号形态多样的问题,人工检测荧光信号是困难的.方法 本研究基于四色荧光原位杂交肺癌图像,针对细胞核和染色信号形态特征提出一种级联细胞核分割网络(cascaded nuclei segmentation network,CACNET)和信号点检测网络(signal detection network,FISHNET)的CAC识别方案.首先使用CACNET对细胞核进行分割获取掩膜,并对应裁剪荧光染色信号图像,然后对单细胞核内的信号点使用FISHNET进行检测,最终对信号点计数并利用临床诊断方法判别细胞.其中,CACNET通过结合注意力机制和边缘约束算法提升重叠细胞核分割效果.FISHNET通过热图回归拟合染色信号形态,并且自定义轻量化目标检测网络提升信号点识别性能.结果 本研究构建44000细胞核进行模型的训练和测试.测试结果显示,本研究提出的CACNET在细胞核分割上取得92.67%的交并比,FISHNET在信号点检测的平均精度接近98%且模型参数量仅有2.24 M.CAC识别的敏感性和特异性分别为96.52%和99.1%.结论 本研究提出的CAC识别方案是高效且鲁棒的,并且与现有的CAC识别方法相比有一定优势,有助于提高临床肺癌诊断结果的可靠性.
...不再出现此类内容
编辑人员丨2024/1/20
