-
基于卷积神经网络的X线片下肢关节角度识别算法
编辑人员丨6天前
提出一种基于卷积神经网络的X线片下肢关节角度识别算法,首先在X线片中使用Yolov5目标检测模型来识别特定类别的感兴趣区域,并使用U-Net模型进行热图回归来识别关键特征点,最后进行下肢关节角度的计算.研究结果表明,本文提出的算法相比于之前的算法精度更高,结果准确可靠,为临床研究和实践提供参考.
...不再出现此类内容
编辑人员丨6天前
-
基于深度学习的锥形束CT钴铬合金全冠金属伪影去除研究
编辑人员丨6天前
目的:建立基于深度学习的金属伪影去除系统(MARS),评估其对锥形束CT影像中不同厚度金属产生的伪影的去除效果。方法:采用三维打印的光敏树脂制作标准牙列模型(60 mm×75 mm×110 mm),设计目标牙位(上颌、下颌双侧第一和第二前磨牙)为可拆卸替换牙位,通过置入不同厚度(轴面及 面厚度均分别为1.0、1.5、2.0 mm,即A、B、C组)的钴铬合金全冠试件,获得完全配对的含有或不含有金属伪影的锥形束CT影像,并通过结构相似度(SSIM)及峰值信噪比(PSNR)评估不同厚度钴铬合金全冠试件产生伪影的范围。建立基于卷积神经网络(CNN)与U型网络(U-net)的MARS(CNN-MARS及U-net-MARS),检验CNN-MARS和U-net-MARS两种系统去伪影前后图像的SSIM值和PSNR值,评估其去伪影效果;通过可视化方式分析两种系统去除锥形束CT影像中金属伪影的效果。采用单因素方差分析分别对两种系统的SSIM值和PSNR值进行统计分析,检验水准为双侧α=0.05。 结果:A、B、C组钴铬合金全冠试件的SSIM值(分别为0.916±0.019、0.873±0.010、0.833±0.010)和PSNR值(分别为20.834±1.176、17.002±0.427、14.673±0.429)差异均有统计学意义( F=447.89, P<0.001; F=796.51, P<0.001),并且随着钴铬合金全冠试件厚度增加,其SSIM及PSNR值均显著增加( P<0.05)。对含有同一厚度钴铬合金全冠试件的图像,采用CNN-MARS与U-net-MARS去伪影后的SSIM和PSNR值均显著高于伪影去除前(均 P<0.05)。使用CNN-MARS去U-net-MARS伪影后,含不同厚度钴铬合金全冠试件图像的SSIM值和PSNR值差异均无统计学意义(均 P>0.05)。CNN-MARS与U-net-MARS去伪影后图像与原始图像的相似度较高;相比U-net-MARS,CNN-MARS去伪影后仍可见较清晰的金属边缘,目标区域的组织结构恢复更完整。 结论:本研究构建的锥形束CT图像金属伪影消除CNN-MARS与U-net-MARS模型,均可有效去除金属伪影的干扰,提升图像质量,且去伪影效果不受金属厚度的影响。相比于U-net-MARS,CNN-MARS对恢复伪影周围组织结构具有显著优势。
...不再出现此类内容
编辑人员丨6天前
-
基于深度学习的乳腺癌保乳术后调强放疗剂量分布预测
编辑人员丨6天前
目的:研究基于深度学习的方法预测乳腺癌保乳术后调强放疗(IMRT)剂量分布,并评估其预测精度。方法:回顾性分析2018年1月至2023年3月在上海国际医学中心接受IMRT的110例左侧乳腺癌保乳术后患者的调强放疗数据,随机固定选择80例作为训练集,随机固定10例作为验证集,剩余20例作为测试集。首先将患者的计算机体层成像(CT)图像、感兴趣区、体素与靶区距离和对应的剂量分布四通道特征作为输入数据,然后使用U-net网络进行训练得到预测模型,利用该模型对测试集进行剂量预测,验证体素与靶区距离特征在剂量预测中的影响,并将剂量预测结果与实际手动计划剂量进行比较。结果:加入体素与靶区距离特征的模型使预测精度更高,测试集中20例患者的剂量评分和剂量体积直方图(DVH)评分分别为2.10±0.18和2.28±0.08,与手动计划剂量分布更加接近( t=2.52、2.40, P<0.05)。靶区和危及器官(OAR)的剂量预测结果与手动计划剂量的偏差在4%以内,健侧乳腺平均剂量增加了13 cGy,均在临床可接受范围内。除PTV 60的 D2、 D98( Di为 i%的PTV体积接受的剂量)、 Dmean(平均剂量)和患侧肺的 V5( Vi为接受 i Gy剂量的OAR体积百分比)、 Dmean差异有统计学意义外( t=3.74、2.91、2.99、3.47、2.29, P<0.05),其他差异无统计学意义( P>0.05)。 结论:基于深度学习的方法可以精准预测乳腺癌保乳术后调强放疗剂量分布,并通过实验证明加入体素与靶区距离特征可以有效提升预测精度,有助于物理师提高计划设计的优质性和一致性。
...不再出现此类内容
编辑人员丨6天前
-
基于混合注意力U-net全脑全脊髓临床靶区自动勾画
编辑人员丨6天前
目的:在U-net卷积神经网络基础上设计出混合注意力U-net (HA-U-net)网络用于全脑全脊髓临床靶体积(CTV)自动勾画,并与U-net自动分割模型分割结果进行比较。方法:研究回顾了110例全脑全脊髓患者数据,选择80例用于训练集,10例用于验证集,20例作为测试集。HA-U-net以U-net为基准网络,在U-net网络输入端加入双注意力模块,同时在跳跃连接中加入注意力门模块来建立全脑全脊髓CTV自动勾画网络模型。评估参数为戴斯相似性系数、豪斯多夫距离和精确率。结果:HA-U-net网络得到戴斯相似性系数为0.901±0.041,豪斯多夫距离为(2.77±0.29) mm,精确率为0.903±0.038,结果均优于U-net网络分割结果(均 P<0.05)。 结论:HA-U-net卷积神经网络可以有效提升全脑全脊髓CTV自动分割的精度,有助于医生提高工作效率与勾画一致性。
...不再出现此类内容
编辑人员丨6天前
-
多尺度融合与注意力结合的头颈部危及器官自动分割
编辑人员丨6天前
目的:开发一种多尺度融合与注意力机制结合的头颈部肿瘤放疗危及器官图像分割方法。方法:基于U-Net卷积神经网络,为增强分割模型的特征表达能力,将空间和通道注意力模块与U-Net模型相结合,提高与分割任务相关性更大的特征通道权重;在网络模型编码阶段引入本文提出的多尺度特征融合算法,补充模型下采样过程中损失的特征信息。使用戴斯相似性系数(DSC)和95%豪斯多夫距离(HD)作为不同深度学习模型之间比较的性能评估标准。结果:在医学图像计算和计算机辅助干预国际会议(MICCAI)StructSeg 2019数据集上进行头颈部22个危及器官的分割。相比于已有方法,本文提出的分割方法平均DSC提升了3%~6%,22种头颈部危及器官的分割平均DSC为78.90%,平均95%HD为6.23 mm。结论:基于多尺度融合和注意力机制的U-Net卷积神经网络对头颈部危及器官达到了更好的分割精度,有望在临床应用中提高医生的工作效率。
...不再出现此类内容
编辑人员丨6天前
-
深度学习卷积神经网络在髋关节翻修术前CT分割领域的研发与初步应用
编辑人员丨6天前
目的:研发基于人工智能深度学习技术的髋关节翻修术前CT影像分割算法,并进行验证及初步应用。方法:回顾性分析2019年4月至2022年10月于中国人民解放军总医院收治的有清晰CT数据资料的翻修病例706例,其中男520例,年龄(58.45±18.13)岁;女186例,年龄(52.23±16.23)岁。均为单侧,左侧402髋、右侧304髋。搭建transformer_unet卷积神经网络并使用Tensorflow 1.15进行网络模型训练,实现对翻修髋关节CT影像的智能分割。基于已研发的全髋关节置换术三维规划系统,初步构建髋关节翻修手术智能规划系统。分别采用dice overlap coefficient(DOC)、average surface distance(ASD)、Hausdorff distance(HD)参数对transformer_unet、全卷积网络(fully convolutional networks,FCN)、2D U-Net、和Deeplab v3+的分割精度进行评估,统计分割耗时对上述网络的分割效率进行评估。结果:与FCN、2D U-Net和Deeplab v3+学习曲线相比,transformer_unet网络可通过较少的训练量实现更优的训练效果。Transformer_unet的DOC为95%±4%,HD为(3.35±1.03) mm,ASD为(1.38±0.02) mm;FCN分别为94%±4%、(4.83±1.90) mm、(1.42±0.03) mm;2D U-Net分别为93%±5%、(5.27±2.20) mm、(1.46±0.02) mm;Deeplab v3+分别为92%±4%、(6.12±1.84) mm、(1.52±0.03) mm。Transformer_unet各系数均优于其他三种卷积神经网络,差异有统计学意义( P<0.05)。在分割时间方面,transformer_unet分割耗时为(0.031±0.001) s,FCN为(0.038±0.002) s,2D U-Net为(0.042±0.001) s,Deeplab v3+为(0.048±0.002) s。Transformer_unet分割耗时少于其他三种卷积神经网络,差异有统计学意义( P<0.05)。将transformer_unet与全髋关节置换术三维规划系统相结合,可初步完成髋关节翻修手术智能规划系统的构建。 结论:与FCN、2D U-Net和Deeplab v3+相比,transformer_unet卷积神经网络可更精准、高效地完成对翻修髋关节CT影像的分割,有望为人工智能髋关节翻修手术术前规划及手术机器人相关领域的研究提供技术支撑。
...不再出现此类内容
编辑人员丨6天前
-
三期相CT图像分割模型的鼻咽癌肿瘤靶区自动勾画研究
编辑人员丨6天前
目的:探究使用基于3D U-Net结合三期相CT图像的分割模型对鼻咽癌肿瘤原发灶(GTVnx)和转移的区域淋巴结(GTVnd)自动勾画的有效性和可行性。方法:回顾性收集215例鼻咽癌病例的电子计算机体层扫描(CT),包括平扫期(CT)、增强期(CTC)和延迟期(CTD)3个期相共计645组图像。采用随机数字表法,将数据集划分为172例训练集和43例的测试集。设置了包括三期相CT图像模型及期相微调模型共计6个实验组:三期相CT图像模型即仅使用平扫期(CT)A1组、仅使用增强期(CTC)A2组、仅使用延迟期(CTD)A3组和同时使用三期相(All)A4组。期相微调模型:CTC微调B1组和CTD微调B2组。使用Dice相似性系数(DSC)和95%豪斯多夫距离(HD95)作为定量评价指标。结果:使用三期相CT(A4)进行GTVnd靶区自动勾画相比于仅使用单期相CT(A1、A2、A3)获得更好的勾画效果(DSC:0.67 vs. 0.61、0.64、0.64, t=7.48、3.27、4.84, P<0.01; HD95: 36.45 mm vs. 79.23、59.55、65.17 mm, t=5.24、2.99、3.89, P<0.01),差异有统计学意义。使用三期相CT(A4)对于GTVnx的自动勾画效果相比于仅使用单期相(A1、A2、A3)无明显提升(DSC: 0.73 vs. 0.74、0.74、0.74;HD95: 14.17 mm vs. 8.06、8.11、8.10 mm),差异无统计学意义( P>0.05)。在GTVnd的自动勾画中,B2、B3 vs. A1模型具有更好的自动勾画精度(DSC:0.63、0.63 vs. 0.61, t=4.10、3.03, P<0.01;HD95:58.11、50.31 mm vs. 79.23 mm, t=2.75、3.10, P<0.01)。 结论:使用三期CT扫描对于鼻咽癌GTVnd靶区具有更好的自动勾画效果。通过期相微调模型,可以提升平扫CT图像上GTVnd靶区的自动勾画精度。
...不再出现此类内容
编辑人员丨6天前
-
基于机器学习模型的2型糖尿病患者视网膜微血管形态学特征与糖尿病肾病的相关性
编辑人员丨6天前
目的:探讨2型糖尿病患者视网膜微血管形态学特征与糖尿病肾病(DKD)的相关性。方法:回顾性分析2018年1月至2020年12月于郑州大学第一附属医院就诊的2型糖尿病患者的临床资料及眼底照相图片。根据是否伴有肾功能异常分为DKD组和对照组。应用U-Net深度卷积神经网络将视网膜血管形态学及结构数字化,应用多因素logistic回归分析视网膜血管形态学特征与DKD的相关性。结果:共纳入2型糖尿病患者648例,男410例,女238例,年龄(53±10)岁。2型糖尿病不伴肾功能异常的对照组398例,DKD组250例;收集双侧眼底图像1 296张。DKD组患者男性占比(68.4%比60.1%, P=0.032)、年龄[(54±9)比(52±10)岁, P=0.005]、收缩压[(136.8±17.3)比(130.3±15.4)mmHg(1 mmHg=0.133 kPa), P<0.001]、总胆固醇[(4.5±1.4)比(4.2±1.0)mmol/L, P=0.009]、甘油三酯[ M( Q1, Q3)][1.7(1.2,3.0)比1.4(1.0,2.3)mmol/L, P<0.001]、胱抑素C[(0.9(0.8,1.0))比0.8(0.7,0.9)mg/L, P<0.001]均高于对照组,高密度脂蛋白[(1.0±0.3)比(1.1±0.3)mmol/L, P=0.001]低于对照组。多因素logistic回归分析结果显示,调整年龄、性别后,相对于血管弯曲度最低四分位数组,第三分位数组(右眼: OR=1.825,95% CI:1.204~2.768, P=0.005)和第四分位数组(左眼: OR=1.929,95% CI:1.218~3.055, P=0.005)DKD的发生风险增加;视网膜静脉血管管径平均值增加(左眼: OR=1.044,95% CI:1.013~1.075, P=0.005)与DKD发生风险相关;血管分形维数(左眼第四分位数组: OR=0.444,95% CI:0.199~0.987, P=0.046)和视网膜血管密度(右眼第二、四分位数组: OR=0.639,95% CI:0.409~0.998, P=0.049; OR=0.534,95% CI:0.331~0.864, P=0.010)降低与DKD的发生风险相关。 结论:视网膜微血管形态学特征异常与DKD存在关联,视网膜静脉血管管径增加、血管密度降低与DKD的发生相关。
...不再出现此类内容
编辑人员丨6天前
-
用于精确图像分割的特征细化金字塔视觉转换器
编辑人员丨3周前
目的:准确提取用于形态评估和临床疾病监测的医学图像中的目标区域,改进将卷积神经网络(CNN)与转换器(Transformer)结合的混合网络用以学习图像局部信息和全局信息.方法:①通过引入基于CNN的解码器并将其与金字塔视觉转换器(PVT)整合,开发了一种新颖的特征细化分割网络称为特征细化金字塔视觉转换器(FR-PVT).解码器用于细化PVT捕获的多尺度全局特征,由特征细化模块(FRM)和上下文注意模块(CAM)以及相似性聚合模块(SAM)共同构成.②为了验证FR-PVT,将其用于五个公共结肠镜图像数据集(ClinicDB、ColonDB、EndoScene、ETIS和KvasirSEG)的息肉分割和温州医科大学附属眼视光医院提供的眼部视频数据集的睑裂分割.③使用四种不同的指标评估FR-PVT的性能,包括Dice系数、IOU、Matthew 系数(MCC)和 Hausdorff 距离(Hdf).FR-PVT与现有网络[即息肉 PVT(Polyp-PVT)、U-Net 及其变体]在相同的分割任务上进行比较.结果:①FR-PVT能够处理各种成像条件下获取的结肠镜图像,并在分割ClinicDB、ColonDB、EndoScene、ETIS和KvasirSEG数据集时获得平均Dice分别为 0.937、0.819、0.892、0.800和0.909.②在眼部视频数据集中的图像上进行的实验结果显示,FR-PVT获得的平均Dice、IOU、MCC和Hdf分别为0.966、0.943、0.957和4.706.③在五个息肉数据集上的分割性能对比显示,FR-PVT分别获得了平均Dice系数和IOU分别为0.840和0.764,优于Polyp-PVT(0.834和0.760)、U-Net(0.561 和0.493)、U-Net++(0.546和0.476)、SFA(0.476和0.367)、PraNet(0.741和0.675).在眼部视频图像上的分割性能显示,FR-PVT分别获得了 0.840的平均Dice系数和0.764的平均IOU.结论:FR-PVT实现了比Polyp-PVT和现有的几种基于CNN的网络(如U-Net及其变体)更好的分割性能.
...不再出现此类内容
编辑人员丨3周前
-
基于卷积神经网络实现锥形束CT牙齿分割及牙位标定
编辑人员丨1个月前
目的:利用卷积神经网络实现基于锥形束CT(cone-beam computed tomography,CBCT)体素数据的牙齿实例分割和牙位标定.方法:本文所提出的牙齿算法包含三个不同的卷积神经网络,网络架构以Resnet为基础模块,首先对CBCT图像进行降采样,然后确定一个包含CBCT图像中所有牙齿的感兴趣区域(region of interest,ROI).通过训练模型,ROI利用一个双分支"编码器-解码器"结构网络,预测输入数据中每个体素所对应的相关空间位置信息,进行聚类后实现牙齿的实例分割.牙位标定则通过另一个多类别分割任务设计的U-Net模型实现.随后,在原始空间分辨率下,训练了一个用于精细分割的U-Net网络,得到牙齿的高分辨率分割结果.本实验收集了 59例带有简单冠修复体及种植体的CBCT数据进行人工标注作为数据库,对牙齿算法的预测结果使用实例Dice相似系数(instance Dice similarity coefficient,IDSC)用来评估牙齿分割结果,使用平均 Dice 相似系数(the average Dice simi-larity coefficient,ADSC)评估牙齿分割及牙位标定的共同结果并进行评定.结果:量化指标显示,IDSC为89.35%,ADSC为84.74%.剔除了带有修复体伪影的数据后生成了有43例样本的数据库,训练网络得到了更优良的性能,IDSC为90.34%,ADSC为87.88%.将得到的结果进行可视化分析,牙齿算法不仅可以清晰地分割出CBCT中牙齿的形态,而且可以对牙齿的分类进行准确的编号.结论:该牙齿算法不仅可以成功实现三维图像的牙齿及修复体分割,还可以准确标定所有恒牙的牙位,具有临床实用性.
...不再出现此类内容
编辑人员丨1个月前
