-
基于分级注意力的多示例口腔癌病理分类
编辑人员丨1周前
针对病理数据超大尺寸、标注成本高昂等问题带来的病理分类准确率较低的问题,基于多示例网络,引入分级注意力模块,设计一种兼顾示例级和图像块级损失的病理分类算法.回顾性收集皖南医学院第一附属医院口腔颌面外科186例口腔癌(126例鳞癌、60例腺癌),其数字病理切片划分为验证集、测试集及训练集.首先对病理图像进行前后背景分割,去掉背景中的噪声部分,然后采用ResNet50对分割后的病理图像提取特征,并将特征输入第一级注意力网络,得到基于图像块的注意力得分和损失,再根据注意力得分对图像块进行排序重置标签输入第二级注意力网络,得到基于示例级别的损失,最后将两级注意力的损失作为模型的总损失,通过训练最终网络,得到口腔癌分类结果.实验结果表明,使用两级注意力的多示例网络准确率为78.95%,AUC为0.8430,相较于基线模型均有更高表现.
...不再出现此类内容
编辑人员丨1周前
-
基于多模态MRI探讨高血压相关脑体积及脑白质信号改变的临床研究
编辑人员丨1周前
目的采用基于体素的形态学分析(voxel-based morphometry,VBM)及脑白质高信号(white matter hyperintensity,WMH)半定量评估研究高血压患者脑灰白质体积及WMH的变化.材料与方法本试验为前瞻性研究,纳入2019年1月至2022年11月南京大学医学院附属苏州医院高血压确诊病例及健康对照者.入组病例均进行薄层sT1WI序列检查,图像数据导入EKM-KELM+分类算法模型,进行自动解剖标记(anatomical automatic labeling,AAL)脑区分割,计算每个脑区的灰质体积(gray matter volume,GMV)、白质体积(white matter volume,WMV)及全脑体积(total intracranial volume,TIV),每个脑区灰白质体积分别采用灰或白质体积/TIV的比值表示.同时对液体衰减反转恢复(fluid attenuated inversion recovery,FLAIR)序列图像中的WMH进行Scheltens视觉定量评估.结果(1)本研究共纳入509例,其中,青年组(20~40岁)136例,中年组(41~60岁)218例,老年组(61~80岁)155例,组内性别、血压级别均无统计学差异(P>0.05);(2)青年组GMV/TIV比较显示,不同高血压级别在左嗅皮质(P=0.031)、左额直回(P=0.036)、右额直回(P=0.022)、右枕下回(P=0.011)差异具有统计学意义;青年组WMV/TIV比较显示,在左侧中央前回(P=0.041)、左侧颞中回(P=0.033)、左侧后扣带回(P=0.001)、右侧后扣带回(P=0.041)、右侧枕下回(P=0.019)差异具有统计学意义;(3)中年组GMV/TIV比较显示,不同高血压级别在左辅助运动区体积差异具有统计学意义(P=0.036),WMV/TIV比较差异均无统计学意义;(4)老年组GMV/TIV比较显示,不同高血压等级在右侧嗅皮质体积差异具有统计学意义(P=0.047),WMV/TIV比较差异均无统计学意义;(5)WMH Scheltens视觉评分显示:青年组差异均无统计学意义(P>0.05);中年组脑室旁WMH(额角、枕角、侧脑室旁)差异具有统计学意义(P=0.028、0.032、0.020),深部白质(额叶)差异具有统计学意义(P=0.024);老年组脑室旁WMH(额角)、深部白质(额叶)及基底节白质区(苍白球)差异具有统计学意义(P=0.022、0.024、0.015).结论MRI多模态半定量分析可以有效评估高血压患者脑体积及WMH变化,青年组随着高血压级别升高脑GMV变化的脑亚区较中老年组变化的脑亚区多;中老年组WMH较青年组更易出现.
...不再出现此类内容
编辑人员丨1周前
-
基于磁共振成像的机器学习在眼眶肿瘤中的应用进展
编辑人员丨1周前
眼眶肿瘤的位置和组织病理学表现各不相同,给诊断带来了挑战.尽管成像技术的进步改善了这一问题,但其分类与鉴别仍是一项挑战.机器学习作为人工智能的关键分支在医疗领域已取得了一定的成果,尤其是其与影像学、眼科学的结合极大地促进了眼眶肿瘤的精准治疗,其在肿瘤鉴别、病灶分割及图像重建等方面已经展现出极大的潜力和广阔的应用前景,有望在提升眼眶肿瘤诊断水平的同时降低临床实践成本.本文就基于MRI的机器学习技术在眼眶肿瘤中的应用进行综述,旨在为临床医师和放射科医生就眼眶肿瘤的诊断、治疗及预后提供思路,并进一步促进机器学习在该领域的应用与普及推广.
...不再出现此类内容
编辑人员丨1周前
-
基于APTw的影像组学术前预测宫颈癌淋巴血管间隙侵犯
编辑人员丨1周前
目的探讨酰胺质子转移加权成像(amide proton transfer weighted imaging,APTw)的影像组学术前预测宫颈癌淋巴血管间隙侵犯(lymphovascular space invasion,LVSI)的价值.材料与方法回顾性分析经手术病理证实的宫颈癌患者病例及影像资料66例.所有患者均行盆腔3.0 T MRI检查,包括轴位T2WI、矢状位T2WI、动态对比增强磁共振成像(dynamic contrast enhanced magnetic resonance imaging,DCE-MRI)和3D-APTw序列扫描.在APTw-T2WI融合图像上对肿瘤实质区域进行感兴趣区(region of interest,ROI)勾画并记录APT值.在APT重建图像上进行肿瘤病灶分割并提取影像组学特征.采用组内相关系数(intra-class correlation coefficient,ICC)选取观察者内和观察者间复测信度好的影像组学特征(ICC>0.900).采用递归特征消除法(recursive feature elimination,RFE)及最小绝对收缩和选择算子(least absolute shrinkage and selection operator,LASSO)算法进行特征降维和筛选.基于logistic回归分类器构建临床模型、APTw影像组学模型和联合组学模型.采用受试者工作特征(receiver operating characteristic,ROC)曲线和决策曲线分析(decision curve analysis,DCA)评估模型的诊断效能和临床价值,采用DeLong检验比较不同模型的预测效能.结果在训练集中,APTw影像组学模型预测宫颈癌LVSI的效能高于临床模型(AUC=0.826 vs.0.675),差异有统计学意义(DeLong检验P<0.05).联合组学模型在训练集和测试集中的AUC值分别为0.838和0.825.DeLong检验结果显示,联合组学模型在训练集中术前评估LVSI的效能显著高于临床模型和APTw影像组学模型(P均<0.05).决策曲线显示APTw影像组学模型和联合组学模型在训练集和测试集中均具有较高的临床价值.结论基于APTw的影像组学模型在术前预测宫颈癌LVSI方面具有较高的潜力,联合临床因素能进一步提高预测效能,有望为宫颈癌患者的个体化治疗和预后评估提供重要的支持.
...不再出现此类内容
编辑人员丨1周前
-
深度学习在新型冠状病毒肺炎的智能诊断应用的研究进展
编辑人员丨1周前
新型冠状病毒肺炎(corona virus disease 2019,COVID-19)具有高传染性,严重威胁人民群众的生命安全,快速筛查可以实现快速治疗、防止肺炎进展.目前COVID-19检测诊断方法的金标准为逆转录聚合酶链式反应(reverse transcription-polymerase chain reaction,RT-PCR),但是由于核酸检测存在耗时且假阴性率偏高的问题,而影像医生对医学图像的诊断存在主观性且工作量巨大,因此借助人工智能(artificial intelligence,AI)技术对实现COVID-19的快速诊断至关重要.随着AI在医学领域的成功应用,深度学习技术成为辅助诊断新型冠状病毒肺炎的有效方法.近年来许多学者使用深度学习技术来构建对医学图像进行智能诊断的模型,本文的主要内容就是对这类模型进行总结和分析,介绍了分割肺部区域的模型、实现二分类或多分类的分类模型以及模型在临床上的应用.与此同时,在文章中分析了COVID-19患者的影像学特点,COVID-19患者多双肺受累,其中磨玻璃影是最常见的影像征象.对COVID-19研究的最新进展也进行了介绍,主要是关于提高AI模型准确性的开发和"长新冠"综合征的相关研究.因此,在新型冠状病毒肺炎常态化管理下,模型准确性的提高可以借助数据集的扩大或模型结构轻量化等方面实现;"长新冠"综合征作为一个新的研究领域,学者可以在临床症状、预后随访和结合深度学习技术等方面进行进一步的研究.
...不再出现此类内容
编辑人员丨1周前
-
双模型策略在指甲病图像智能诊断中的应用
编辑人员丨1周前
目的 探索一种在小数据量条件下提高医学诊断神经网络模型准确率和泛化能力的方法,解决在指甲病图像计算机辅助诊断中由于训练数据量小而导致神经网络模型性能不佳的问题.方法 提出融合实例分割与细粒度特征分类的双模型策略,采用第一届全国数字健康创新应用大赛健康医疗大数据主题赛基于图像的指甲病智能诊断模型任务数据集训练基于双模型策略的神经网络模型,该任务数据集涵盖甲母痣、甲沟炎、银屑病甲、甲真菌病、甲下出血、甲黑线、甲周疣、甲黑素瘤8类指甲病,各类别不平衡.评估双模型策略的诊断性能,并与相同软、硬件训练条件下单模型策略[图像分类模型(ResNet50、Swin Transformer)和基于快速区域卷积神经网络(Faster R-CNN)的目标检测模型]进行比较.结果 纳入任务数据集包括甲母痣210例、甲沟炎186例、银屑病甲69例、甲真菌病203例、甲下出血149例、甲黑线71例、甲周疣93例、甲黑素瘤67例共1 048例样本,其中90%的样本用于训练不同策略的模型,10%用于评估模型.基于ResNet50的图像分类模型的micro F1值为0.324,基于Swin Transformer的图像分类模型为0.381,基于Faster R-CNN的目标检测模型为0.572,基于双模型策略的Mask R-CNN+Swin Transformer模型为0.714.双模型策略预测各指甲病的准确度为甲母痣80.95%(17/21)、甲沟炎89.47%(17/19)、银屑病甲100.00%(7/7)、甲真菌病70.00%(14/20)、甲下出血73.33%(11/15)、甲黑线14.29%(1/7)、甲周疣55.56%(5/9)、甲黑素瘤42.86%(3/7).双模型策略在该任务1 000例测试集中的micro F1值为0.844.结论 双模型策略可以有效结合功能不同的模型,更好地完成小数据量训练条件下的指甲病图像智能诊断任务.
...不再出现此类内容
编辑人员丨1周前
-
基于深度学习的眼底图像视盘定位与分割方法
编辑人员丨1周前
目的:观察分析基于深度学习的眼底图像视盘定位与分割方法的准确性。方法:在ORIGA数据集上训练和评估基于深度学习的视盘定位和分割方法。在深度学习的Caffe框架上构建深度卷积神经网络(CNN)。采用滑动窗口将ORIGA数据集的原图切割成许多小块图片,通过深度CNN判别各个小块图片是否包含完整视盘结构,从而找到视盘所在区域。为避免血管对视盘分割产生影响,在分割视盘边界之前去除视盘区域的血管。采用基于图像像素点分类的视盘分割深度网络,实现眼底图像视盘的分割。计算基于深度学习的眼底图像视盘定位与分割方法的准确性。定位准确率=T/N,T代表视盘定位正确的眼底图像数量,N代表总共用于定位的眼底图像数量。采用重叠误差(overlap error)比较视盘分割结果与实际视盘边界的误差大小。结果:基于深度学习的眼底图像视盘定位方法其定位准确率为99.6%;视盘分割平均重叠误差为7.1%;对青光眼图像和正常图像的平均杯盘比的计算误差分别为0.066和0.049;每幅图像的视盘分割平均花费10 ms。结论:基于深度学习的眼底图像视盘定位方法能快速并准确地定位视盘区域,同时也能够较为精准地分割出视盘边界。
...不再出现此类内容
编辑人员丨1周前
-
基于计算机深度学习经皮椎板间脊柱内镜手术视野的多元素识别网络模型的研究
编辑人员丨1周前
目的:探讨基于计算机深度学习经皮椎板间脊柱内镜下手术视野的多元素识别网络模型的研究及应用价值。方法:回顾性队列研究。纳入2021年9月—2022年3月徐州中心医院脊柱外科行经皮椎板间脊柱内镜下腰椎间盘切除术的腰椎间盘突出患者62例,其中男34例、女28例,年龄27~77(50.0±14.7)岁。收集患者内镜手术视频,选取4 840张经皮脊柱内镜手术视野图片(包含各种组织结构及手术器械)建立图片数据集,按照2∶1∶2分为训练集、验证集和测试集,开发8种基于实例分割的卷积神经网络模型(模型的分割头部分别为Solov2、CondInst、Mask R-CNN及Yolact,主干网络分别设置为ResNet101、ResNet50)。采用边框检测、轮廓分割的均值平均精度(mAP)及图像实时识别的每秒帧数(FPS)来衡量各模型对(神经、黄韧带、髓核等)解剖结构,以及(内镜钳、高速金刚石磨钻等)手术器械的分类、定位及图像实时识别的性能。结果:(1)8种卷积神经网络模型在图像边界框检测的精度方面由高到低依次为Mask R-CNN(ResNet101)、CondInst(ResNet101)、CondInst(ResNet50)、Mask R-CNN(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50),其中,Mask R-CNN(ResNet101)模型精度最高(mAP=68.7%),Yolact(ResNet50)精度最低(mAP=49.7%)。(2)8种卷积神经网络模型在图像轮廓分割的精度方面由高到低依次Solov2(ResNet101)、Solov2(ResNet50)、Mask R-CNN(ResNet101)、CondInst(ResNet101)、Mask R-CNN(ResNet50)、CondInst(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50)。其中,Solov2(ResNet101)精度最高(mAP=70.1%),Yolact(ResNet50)精度最低(mAP=55.2%)。(3)在图像实时识别方面,Yolact模型速度最快,其次为Solov2模型、Mask R-CNN模型,CondInst(ResNet101)速度最慢。结论:基于计算机深度学习的经皮椎板间脊柱内镜手术视野多元素识别模型可以实时识别和跟踪解剖组织及手术器械。其中,Mask R-CNN(ResNet101)模型可用作脊柱内镜操作虚拟教育工具,Solov2(ResNet101)模型可应用于脊柱内镜术中实时辅助系统。
...不再出现此类内容
编辑人员丨1周前
-
乳腺影像报告和数据系统分类联合影像组学模型鉴别不同X线表型乳腺病灶良性与恶性的价值
编辑人员丨1周前
目的:探讨乳腺影像报告和数据系统(BI-RADS)分类联合影像组学预测模型鉴别X线摄影不同表现类型乳腺病灶良性与恶性的效能。方法:回顾性分析东南大学附属中大医院2013年5月至2020年8月接受乳腺X线摄影检查并经病理证实的2 055例女性患者。根据BI-RADS分类第5版将病灶分为肿块型及非肿块型,肿块型又分为小肿块(最大径≤2 cm)、大肿块(最大径>2 cm),非肿块型又分为非对称、钙化及结构扭曲。通过手动分割病灶感兴趣区提取影像组学特征并构建影像组学模型。使用受试者操作特征曲线及曲线下面积(AUC)评估BI-RADS分类、影像组学及两者联合鉴别诊断乳腺X线摄影不同表现类型良性与恶性病变的效能,采用DeLong检验比较3种模型的AUC。结果:BI-RADS分类、影像组学模型及BI-RADS分类联合影像组学模型诊断乳腺病灶良性与恶性AUC值分别为0.924±0.006、0.827±0.009及0.947±0.005;与BI-RADS分类、影像组学模型比较,联合模型的诊断的AUC最高,差异具有统计学意义( Z值分别为9.29、14.94, P<0.001)。联合模型鉴别大肿块、小肿块及非肿块乳腺病灶良性与恶性的AUC(分别为0.958±0.007、0.933±0.013、0.939±0.008)均高于BI-RADS分类(AUC分别为0.937±0.010、0.896±0.020、0.916±0.011, Z值分别为5.32、3.90、5.08, P<0.001)、影像组学模型(AUC分别为0.872±0.012、0.851±0.021、0.758±0.016, Z值分别为7.86、4.53、12.13, P<0.001)。联合模型诊断非对称乳腺病灶良性与恶性的AUC(0.897±0.017)高于BI-RADS分类(AUC为0.866±0.020, Z=4.27, P<0.001)、影像组学模型(AUC为0.633±0.029, Z=7.44, P<0.001);而联合模型诊断诊断钙化和结构扭曲乳腺病灶良性与恶性的AUC(分别为0.971±0.010、0.811±0.057)仅高于影像组学模型(AUC分别为0.827±0.021、0.586±0.075, Z值分别为7.40、3.15, P<0.001),与BI-RADS分类差异无统计学意义(AUC分别为0.959±0.012、0.800±0.061, Z分别为1.87、0.39, P>0.05)。 结论:BI-RADS分类结合影像组学模型预测X线摄影不同表现类型乳腺病灶良性与恶性的效能较高,具有重要的临床应用价值。
...不再出现此类内容
编辑人员丨1周前
-
两种自动勾画头颈部危及器官方法的比较研究
编辑人员丨1周前
目的:设计一种基于深度学习的自动勾画模型,用于勾画头颈部危及器官(OARs),并与基于图谱方法的Smart segmentation勾画软件进行比较。方法:自动勾画模型由基于深度学习神经网络的分类模型和勾画模型组成。分类模型将CT图像从头脚方向分为6个分类,将每个OARs对应分类的CT图像输入勾画模型进行分割勾画。自动勾画模型使用150例病例训练模型,Smart segmentation使用相同的150例病例组成图谱库,两者同时对20例测试集进行勾画。使用相似度系数(DSC)和豪斯多夫距离(HD)评估2种方法勾画准确性,同时记录两种方法勾画花费时间。根据数据是否满足正态分布,分别使用配对 t检验和Wilcoxon符号秩和检验。 结果:自动勾画模型的DSC和HD结果如下:脑干为0.88和4.41 mm、左眼球为0.89和2.00 mm、右眼球为0.89和2.12 mm、左视神经为0.70和3.00 mm、右视神经为0.80和2.24 mm、左颞叶为0.81和7.98 mm、右颞叶为0.84和8.82 mm、下颌骨为0.89和5.57 mm、左腮腺为0.70和11.92 mm和右腮腺为0.77和11.27 mm。除腮腺外,自动勾画模型勾画结果均优于Smart segmentation,差异有统计学意义( t=3.115~7.915, Z=-1.352~-3.921, P<0.05)。同时,自动勾画模型速度比Smart segmentation提高了51.28%。 结论:利用深度学习方法建立了自动勾画头颈部OARs的模型,得到较准确结果,勾画精度和速度均优于Smart segmentation软件。
...不再出现此类内容
编辑人员丨1周前
