-
融合多尺度注意力的脊柱侧弯Cobb角自动估计算法
编辑人员丨1周前
目的 青少年特发性脊柱侧弯(adolescent idiopathic scoliosis,AIS)是危害青少年健康的常见疾病之一.临床上,X线图像Cobb角测量法是评估患者脊柱侧凸严重程度的"金标准".由于X线图像中肋骨和骨盆阴影重叠以及椎骨形态差异等因素影响,人工测量在寻找关键点时步骤复杂且耗时长,快速且准确的Cobb角自动测量方法具有重要临床应用价值.现有深度学习方法中基于分割的方法易受图像质量影响;基于关键点检测方法过于关注局部特征提取导致定位不准确等问题.为此,本文提出了一种以椎骨为中心的标志点检测方法,来实现脊柱侧弯Cobb角自动估计算法.方法 构建一种基于融合多尺度和注意力机制M型椎骨检测网络(multi-scale attention M-shaped network,MSAM-Net).首先,使用多尺度金字塔拆分注意力(multi-scale pyramids squeeze attention,MPSA)模块和注意力特征融合(attentional feature fusion,AFF)模块提取椎骨特征和上下文信息,然后,根据椎体中心和角偏移量定位4个角标志点,以在脊柱侧弯评估任务中提高椎骨标志点检测的性能,进而实现近胸段、主胸段和胸腰段曲线的Cobb角估计.结果 为了评估Cobb角估计与真实侧弯角度之间的偏差程度,本研究算法基于AASCE MICCAI 2019挑战赛数据集,使用4种指标对Cobb角精度进行评估,分别是对称平均绝对百分比误差(symmetric mean absolute percentage error,SMAPE)、欧氏距离(Euclidean distance,ED)、曼哈顿距离(Manhattan distance,MD)和切比雪夫距离(Chebyshev distance,CD).测试得到SMAPE为9.39%,ED为4.18;MD为5.92;CD为5.34.与基于分割和检测的5种深度学习方法进行对比,实现更好的Cobb角测量结果.结论 本研究可以准确识别和定位X线图像中椎骨,帮助医生测量AIS患者的Cobb角,为临床AIS诊断、手术计划和脊柱健康分析提供决策支持.
...不再出现此类内容
编辑人员丨1周前
-
基于深度学习的视网膜眼底图像的渗出分割方法研究
编辑人员丨1周前
目的:探索基于深度学习方法自动分割彩色眼底图像上糖尿病患者视网膜渗出特征的可行性。方法:应用研究。基于印度糖尿病视网膜病变图像数据集(IDRID)模型的U型网络,将深度残差卷积引入到编码和解码阶段,使其能够有效提取渗出深度特征,解决过拟合和特征干扰问题,同时提升模型的特征表达能力和轻量化性能。此外,通过引入改进的上下文提取模块,使模型能捕捉更广泛的特征信息,增强对视网膜病灶的感知能力,尤其是提升捕捉微小细节和模糊边缘的能力。最后,引入卷积三重注意力机制,使模型能自动学习特征权重,关注重要特征,并从多个尺度提取有益信息。通过查准率、查全率、Dice系数、准确率和灵敏度来评估模型对彩色眼底图像上糖尿病患者自动视网膜渗出特征的检测与分割能力。结果:应用本文研究方法后,改进模型在IDRID数据集上的查准率、查全率、相似系数、准确率、灵敏度、分别达到81.56%、99.54%、69.32%、65.36%、78.33%。与原始模型相比,改进模型的查准率和Dice系数分别提升了2.35%和3.35%。结论:基于U型网络的分割方法能自动检测并分割出糖尿病患者眼底图像的视网膜渗出特征,对于辅助医生更准确地诊断疾病情况具有重要意义。
...不再出现此类内容
编辑人员丨1周前
-
用于精确图像分割的特征细化金字塔视觉转换器
编辑人员丨1个月前
目的:准确提取用于形态评估和临床疾病监测的医学图像中的目标区域,改进将卷积神经网络(CNN)与转换器(Transformer)结合的混合网络用以学习图像局部信息和全局信息.方法:①通过引入基于CNN的解码器并将其与金字塔视觉转换器(PVT)整合,开发了一种新颖的特征细化分割网络称为特征细化金字塔视觉转换器(FR-PVT).解码器用于细化PVT捕获的多尺度全局特征,由特征细化模块(FRM)和上下文注意模块(CAM)以及相似性聚合模块(SAM)共同构成.②为了验证FR-PVT,将其用于五个公共结肠镜图像数据集(ClinicDB、ColonDB、EndoScene、ETIS和KvasirSEG)的息肉分割和温州医科大学附属眼视光医院提供的眼部视频数据集的睑裂分割.③使用四种不同的指标评估FR-PVT的性能,包括Dice系数、IOU、Matthew 系数(MCC)和 Hausdorff 距离(Hdf).FR-PVT与现有网络[即息肉 PVT(Polyp-PVT)、U-Net 及其变体]在相同的分割任务上进行比较.结果:①FR-PVT能够处理各种成像条件下获取的结肠镜图像,并在分割ClinicDB、ColonDB、EndoScene、ETIS和KvasirSEG数据集时获得平均Dice分别为 0.937、0.819、0.892、0.800和0.909.②在眼部视频数据集中的图像上进行的实验结果显示,FR-PVT获得的平均Dice、IOU、MCC和Hdf分别为0.966、0.943、0.957和4.706.③在五个息肉数据集上的分割性能对比显示,FR-PVT分别获得了平均Dice系数和IOU分别为0.840和0.764,优于Polyp-PVT(0.834和0.760)、U-Net(0.561 和0.493)、U-Net++(0.546和0.476)、SFA(0.476和0.367)、PraNet(0.741和0.675).在眼部视频图像上的分割性能显示,FR-PVT分别获得了 0.840的平均Dice系数和0.764的平均IOU.结论:FR-PVT实现了比Polyp-PVT和现有的几种基于CNN的网络(如U-Net及其变体)更好的分割性能.
...不再出现此类内容
编辑人员丨1个月前
-
基于特征融合的糖尿病命名实体识别
编辑人员丨2024/8/10
针对医学糖尿病领域命名实体识别中存在实体种类多样性、数据稀缺等问题,提出了基于特征融合的糖尿病命名实体识别方法.以BERT+BILSTM+CRF为基准模型,在3方面进行改进.首先,使用预训练模型RoBERTa-wwm-ext作为模型嵌入层,提供字符级嵌入,利用其在训练阶段进行全词掩码来获取含有先验知识的语义表示.其次,使用双向长短时记忆网络和迭代膨胀卷积神经网络并行提取特征,以获取不同粒度的特征.同时,结合注意力机制进行动态特征融合,从而更好地理解数据的关键信息,以获得更丰富的上下文特征.最后,采用条件随机场进行解码,获得最终的预测结果.该模型在包含18种实体类别的中文糖尿病数据集DiaKG上的F1值达到了79.58%,实验结果表明,与High-Order MKGragh模型相比,该模型的F1值提升了5.38%,充分说明了特征融合的方法能够有效识别糖尿病实体.
...不再出现此类内容
编辑人员丨2024/8/10
-
基于双编码特征提取路径的舌体分割方法
编辑人员丨2024/5/18
针对舌图像舌体边缘分割模糊、小区域分割错误等问题,本研究设计了一种双编码特征提取路径的方法,以获取丰富的信息特征,辅助舌体精确分割.首先,设计双编码特征提取路径,其中,空间信息路径保留空间信息并生成高分辨率特征图,上下文信息路径提高网络提取多尺度特征能力;其次,采用一种特征融合模块,融合空间信息路径和上下文信息路径的输出特征;最后,采用轻量级解码器模块减少模型参数量,提高模型计算效率.结果显示,该方法精确率、召回率、F1 分数和平均交并比(mean intersection over union,MIoU)分别达 98.82%、98.53%、98.60%和 97.67%,模型总参数量和每秒浮点运算次数(floating point operations per second,FLOPs)为7.54 M和67.09 G.结果表明,该方法可有效提高舌体的分割精度,显著改善舌体小区域分割错误和边缘模糊性,为中医舌象智能辅助分析提供必要支撑.
...不再出现此类内容
编辑人员丨2024/5/18
-
基于梯度提升树的ECG-SAS自动识别方法
编辑人员丨2023/8/6
目的 睡眠呼吸暂停综合征(sleep apnea syndrome,SAS)是威胁生命健康的多发病之一,目前判断SAS的方法大多采用多导睡眠图(polysomnography,PSG),但其操作难度大、专业性高,不能有效推广,因此,设计一种自动检测SAS的方法显得尤为迫切和重要.方法 本文设计了一种基于梯度提升树(gradient boosting decision tree,GBDT)的算法方案,首先通过信号处理方法提取心电图(electrocardiogram,ECG)数据的心率变异性(heart rate variability,HRV)特征,然后结合上下文相关性策略处理HRV数据训练模型.在得到模型后,采用动态阈值策略微调预测结果.最后统计每小时内的SAS发生次数,得到呼吸暂停低通气指数(apnea-hypopnea index,AHI),完成SAS病情预测.结果 本文使用Apnea-ECG数据库的ECG数据验证该算法效果.结果显示,采用本文方案,35个测试样本的SAS单分钟识别率为88.56%,按照AHI指标,将样本分为健康、轻度、中度、重度4类,其准确率为91.43%.结论 本文所述基于GBDT的ECG-SAS识别方案,可以有效检测SAS事件,评估个体的SAS病情.
...不再出现此类内容
编辑人员丨2023/8/6
-
基于预训练表征模型的自动ICD编码
编辑人员丨2023/8/5
目的:探索基于开源预训练表征模型的自然语言处理(Natural Language Processing,NLP)方法在电子病历ICD自动编码中的应用.方法:在电子病历文本字词向量的表达方面,传统基于浅层神经网络模型的Word2vec或基于深度学习模型Elmo等方法存在无法感知复杂上下文、语义单向编码等缺点.而近年来以BERT、ERNIE等基于Transformer编码的预训练字词表征技术在多个NLP场景中取得了较大的进步.通过对开源模型BERT采用微调(Fine-tuning),将三甲医院的439份电子病历的文字描述诊断所对应的ICD编码进行自动分类提取.结果:经过微调后的模型在准确率及召回率等指标相较于传统方法分别提升了21.1%和25.1%,使电子病历文本的特征表达能力得到了明显的提升.结论:基于预训练模型的迁移学习方法及双向语义感知能力体现了其处理大规模语料时的优势,对临床电子病历实际应用中ICD编码标准化、医院临床路径以及DRGs付费管理等NLP相关应用具有重要意义.
...不再出现此类内容
编辑人员丨2023/8/5
-
基于DenseMedic网络的脑皮层下结构的语义分割
编辑人员丨2023/8/5
脑皮层下结构分割问题是神经科及其他相关疾病计算机辅助诊断和治疗的基础.通过分割和分析核磁共振图像中的脑结构,可以对自闭症谱系障碍、脑卒中、脑肿瘤等疾病进行早期诊断和治疗.为解决精准脑结构分割的问题,基于深度学习基本理论,提出一种DenseMedic网络的核磁共振图像脑皮层下结构的分割算法.首先,OreoDown方法通过较早地增大卷积核的步长增大特征感受野的增长速度,并使用不变尺寸的卷积层夹心式地恢复网络深度,使速度的增加带来有效的感受野增加;其次,DenseMedic使用DenseNet的思想实例化OreoDown框架,通过密集连接的特征提取操作来获取多尺度的上下文信息;最后,在各层中使用混合空洞卷积进一步扩大感受野,解决特征感知过于粗糙的问题.采用Dice相似度系数(DSC)、交并比(IoU)、95%Hausdorff表面距离(HSD95)和平均表面距离(ASD)4个指标,评价神经网络的分割性能.在公开的IBSR数据集的18例图像上进行实验,算法的4个指标分别达到89.2%,80.7%、1.982和0.882;在公开的MBBrainS18数据集的7例图像上的实验显示,算法的4个指标分别达到88.7%、79.8%、1.249和0.570.实验表明,所提出的算法使脑结构的分割结果与真实结构在区域上有更多的重叠,在轮廓上更加相似,可以更好地完成各个脑皮层下结构的分割.在临床应用中,对脑皮层下结构的精准分割将有助于准确测量相关疾病诊断的关键指标,并实现快速的计算机辅助治疗.
...不再出现此类内容
编辑人员丨2023/8/5
-
基于分频视觉机制的显著轮廓特征提取方法
编辑人员丨2023/8/5
目的 提出一种基于分频视觉机制的图像显著轮廓特征提取新方法,在多通道分离基础上融合视觉信息机制,以实现图像的有效性和完整性.方法 利用具有频域响应特性的高斯导函数,模拟LGN感受野对视觉信息的分频特性,实现空间频域调谐作用;根据空间频率和朝向调谐之间的全局性抑制作用,构建一种基于对比度自适应的朝向敏感感受野,通过视觉感受野信息差异的检测,实现对外周纹理的选择性抑制,并利用分频视觉信息流的融合模型,表征初级视皮层中的上下文整合机制.结果 以RuG40图库中的图像作为实验样本,经过非极大值抑制和阈值处理,检测结果与轮廓基准图的平均指标为0.48,优于其他对比方法.结论 该方法能够实现图像轮廓的有效检测,为后续图像编码与融合提供新的思路.
...不再出现此类内容
编辑人员丨2023/8/5
-
基于混合注意力时序网络的睡眠分期算法研究
编辑人员丨2023/8/5
睡眠分期是研究睡眠疾病的重要途径,近年来受到了广泛关注.传统手工标记方法与传统机器学习算法存在效率低下、泛化性不足的问题,虽然近期流行的深度学习网络模型依靠其学习复杂特征的能力改善了睡眠分期结果,但仍存在着忽略片段内时序信息与通道相关性的问题.本文提出了一种混合注意力时序网络,利用循环神经网络取代较为传统的卷积神经网络,从时间角度提取多导睡眠图的时序特征;然后采用片段内时序注意力与通道注意力机制,实现信号片段内时序特征融合和通道相关性特征融合;再基于循环神经网络与片段间时序注意力机制,进一步实现信号片段间时序上下文特征融合;最终根据上述混合特征完成端到端自动睡眠分期.本文采用开源数据网站上包含多个多导睡眠图的睡眠数据集进行对比实验,实验结果表明本文模型能够优于10种典型基线模型,睡眠分期准确率分别可达到0.801、0.801、0.717,平均F1分数可达到0.752、0.728、0.700,验证了本文模型的有效性.
...不再出现此类内容
编辑人员丨2023/8/5
