-
基于计算机深度学习经皮椎板间脊柱内镜手术视野的多元素识别网络模型的研究
编辑人员丨1周前
目的:探讨基于计算机深度学习经皮椎板间脊柱内镜下手术视野的多元素识别网络模型的研究及应用价值。方法:回顾性队列研究。纳入2021年9月—2022年3月徐州中心医院脊柱外科行经皮椎板间脊柱内镜下腰椎间盘切除术的腰椎间盘突出患者62例,其中男34例、女28例,年龄27~77(50.0±14.7)岁。收集患者内镜手术视频,选取4 840张经皮脊柱内镜手术视野图片(包含各种组织结构及手术器械)建立图片数据集,按照2∶1∶2分为训练集、验证集和测试集,开发8种基于实例分割的卷积神经网络模型(模型的分割头部分别为Solov2、CondInst、Mask R-CNN及Yolact,主干网络分别设置为ResNet101、ResNet50)。采用边框检测、轮廓分割的均值平均精度(mAP)及图像实时识别的每秒帧数(FPS)来衡量各模型对(神经、黄韧带、髓核等)解剖结构,以及(内镜钳、高速金刚石磨钻等)手术器械的分类、定位及图像实时识别的性能。结果:(1)8种卷积神经网络模型在图像边界框检测的精度方面由高到低依次为Mask R-CNN(ResNet101)、CondInst(ResNet101)、CondInst(ResNet50)、Mask R-CNN(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50),其中,Mask R-CNN(ResNet101)模型精度最高(mAP=68.7%),Yolact(ResNet50)精度最低(mAP=49.7%)。(2)8种卷积神经网络模型在图像轮廓分割的精度方面由高到低依次Solov2(ResNet101)、Solov2(ResNet50)、Mask R-CNN(ResNet101)、CondInst(ResNet101)、Mask R-CNN(ResNet50)、CondInst(ResNet50)、Yolact(ResNet101)、Yolact(ResNet50)。其中,Solov2(ResNet101)精度最高(mAP=70.1%),Yolact(ResNet50)精度最低(mAP=55.2%)。(3)在图像实时识别方面,Yolact模型速度最快,其次为Solov2模型、Mask R-CNN模型,CondInst(ResNet101)速度最慢。结论:基于计算机深度学习的经皮椎板间脊柱内镜手术视野多元素识别模型可以实时识别和跟踪解剖组织及手术器械。其中,Mask R-CNN(ResNet101)模型可用作脊柱内镜操作虚拟教育工具,Solov2(ResNet101)模型可应用于脊柱内镜术中实时辅助系统。
...不再出现此类内容
编辑人员丨1周前
-
基于深度学习及Delta影像组学的唾液腺显像在甲状腺癌术后及 131I治疗后唾液腺损伤评估中的价值
编辑人员丨1周前
目的:探讨基于深度学习及Delta影像组学的唾液腺显像在评估甲状腺癌术后、 131I治疗后患者唾液腺损伤中的价值。 方法:回顾性收集2019年12月至2022年1月于桂林医学院附属医院接受甲状腺癌全切根治手术和 131I治疗的223例甲状腺乳头状癌患者[男46例,女177例,年龄(47.7±14.0)岁]的资料。患者在 131I治疗前、后均行唾液腺 99Tc mO 4- SPECT显像,根据显像结果将患者按唾液腺功能情况(正常与损伤)分类标注后按7∶3分为训练集和测试集;基于唾液腺最大放射性计数时的图像和本底放射性计数时的图像训练ResNet-34神经网络模型作为特征提取器,用于提取结构化图像特征数据;采用Delta影像组学的方法将2个时期的图像特征值相减,通过配对 t检验、Spearman秩相关性分析结合最小绝对收缩和选择算子(LASSO)算法进行特征筛选,建立逻辑回归(LR)、支持向量机(SVM)和K-最近邻(KNN)预测模型。将3种模型对测试集的唾液腺功能诊断情况与人工判读情况进行对比,并比较3种模型对测试集的AUC(Delong检验)。 结果:在测试集67例显像中,3位阅片医师的唾液腺功能诊断准确性分别为89.6%(60/67)、83.6%(56/67)和82.1%(55/67),所需时间分别为56、74和55 min;LR、SVM、KNN的判断准确性分别为91.0%(61/67)、86.6%(58/67)和82.1%(55/67),所需时间分别为12.5、15.3和17.9 s。3种影像组学模型均具有较好的分类预测能力,LR、SVM、KNN模型训练集AUC分别为0.972、0.965、0.943;测试集AUC分别为0.954、0.913、0.791,差异无统计学意义( z值:0.72、1.18、1.82,均 P>0.05)。 结论:基于深度学习及Delta影像组学的模型对甲状腺癌术后、 131I治疗后患者唾液腺损伤有较高的评估价值。
...不再出现此类内容
编辑人员丨1周前
-
一种基于34层ResNet模型的人工智能软件诊断皮肤病的性能评估
编辑人员丨1周前
目的:评估人工智能软件Autoderm在我国患者中诊断皮肤病的性能。方法:在郑州大学第一附属医院皮肤科前瞻性招募诊断明确的920例患者,每例患者上传1张临床图像至Autoderm进行诊断,然后计算其诊断的灵敏度、特异度、准确度和kappa值。结果:920例患者中,Autoderm可以诊断871例(94.7%),不能诊断49例(5.3%)。Autoderm的第1位/前3位诊断平均灵敏度为41.8%和65.8%,平均特异度为96.8%和91.5%,平均准确度为92.9%和89.9%。第1位/前3位诊断与皮肤科医生诊断总体一致性为中等(κ = 0.420、0.464)。但Autoderm对其不能诊断的病种也会给出5个肯定错误的诊断。结论:Autoderm可以诊断我国大部分患者的常见皮肤病,显示出中等灵敏度、高特异度和高准确度,但存在一定的误诊率。
...不再出现此类内容
编辑人员丨1周前
-
深度卷积神经网络对胃病变普通内镜图像诊断的研究
编辑人员丨1周前
目的:通过深度卷积神经网络(convolutional neural network,CNN)技术实现胃病变内镜图像的快速、准确人工智能辅助诊断。方法:收集2012—2018年北京大学人民医院1 121例胃病变的普通白光内镜图像和病理结果。胃病变图像包括消化性溃疡、早期胃癌及高级别上皮内瘤变、进展期胃癌、胃黏膜下肿瘤共4类,另外还包括无病变正常胃黏膜图像。共17 217张图像作为训练集,使用CNN ResNet-34模型训练分类任务,使用全CNN DeepLabv3模型训练像素分割任务。经过训练后的CNN通过一个测试集评估诊断效能,测试集包括237例胃病变,共1 091张普通内镜图像。计算CNN诊断的准确率、敏感度、特异度、阳性预测值、阴性预测值。结果:CNN对于早期胃癌及高级别上皮内瘤变的诊断准确率为78.6%(33/42),敏感度为84.4%(27/32),特异度为60.0%(6/10),阳性预测值87.1%(27/31),阴性预测值54.5%(6/11);对于消化性溃疡的诊断准确率为90.4%(47/52),敏感度为92.7%(38/41),特异度为81.8%(9/11);对于进展期胃癌的诊断准确率为88.1%(52/59),敏感度为91.8%(45/49),特异度为70.0%(7/10);对于胃黏膜下肿瘤的诊断准确率为86.0%(43/50),敏感度为89.7%(35/39),特异度为72.7%(8/11)。所有测试集图像识别时间为42 s。结论:CNN可以作为早期胃癌及其他胃病变内镜图像的快速辅助识别方法,识别速度快,准确率高。
...不再出现此类内容
编辑人员丨1周前
-
基于AS-OCT图像的核性白内障多级排序分类算法研究
编辑人员丨1周前
目的:探讨基于眼前节光学相干断层扫描(AS-OCT)图像的核性白内障智能辅助分级算法对白内障分级的诊断价值。方法:采用诊断试验研究方法,收集2020年11月至2021年9月间同济大学附属第十人民医院电子病例系统中核性白内障患者939例1 608眼的AS-OCT图像资料,所有资料均符合临床阅片清晰度要求。其中男398例664眼,女541例944眼,年龄18~94岁,平均年龄(65.7±18.6)岁。由3名经验丰富的临床医生基于晶状体混浊分类系统(LOCS Ⅲ分级系统),对所收集的AS-OCT图像进行1~6级人工标注。构建一种基于多级排序的全局-局部白内障分级算法,该算法包含5个基本的二元分类全局-局部网络(GL-Net),每个GL-Net聚合白内障核区域、原始图像等多尺度信息进行核性白内障分级。基于消融实验和模型对比试验,采用准确率、精确率、灵敏度、F1指标及Kappa系数对模型性能进行评价,且所有结果均通过五折交叉验证。结果:模型在核性白内障数据集上的准确率、精确率、灵敏度、F1、Kappa分别为87.81%、88.88%、88.33%、88.51%、85.22%。消融实验结果表明,ResNet18结合局部特征和全局特征进行多级排序分类,模型在准确率、精确率、灵敏度、F1、Kappa指标上均有提升。与ResNet34、VGG16、Ranking-CNN、MRF-Net模型比较,本研究模型各性能指标均有提升。结论:基于深度学习的AS-OCT核性白内障图像多级排序分类算法对白内障分级具有较高的准确度,有望辅助提高眼科医生对核性白内障的诊断精度以及效率。
...不再出现此类内容
编辑人员丨1周前
-
深度学习在抗核抗体荧光核型识别中的应用初探
编辑人员丨1周前
目的:开发抗核抗体荧光核型的人工智能识别系统雏形,以期满足临床实验室工作中对抗核抗体(ANA)图像免疫荧光模式自动判读的日常需求。方法:回顾性分析上海交通大学医学院附属新华医院2020年4月1日至2021年12月31日进行ANA项目检测结果为阳性的荧光图像,3位资深的技术人员独立、平行对荧光图像进行结果判读确定ANA核型结果,并按照ANA荧光模式国际共识荧光核型分类标准进行标注。对常见核型分7个标签组:粗颗粒型、细颗粒型、均质型、核仁型、着丝点型、核点型及核膜型;每个标签组数据按9︰1的比例采用随机数的方法随机分为训练集、验证集,在深度学习框架pytorch1.7上,以ResNet-34图像分类网络为基础构建卷积神经网络训练平台,建立ANA核型自动判读系统。模型建立后单独设立测试集,以模型预测概率高低排序输出判断结果,并对测试集数据进行判读,以人工判读结果作为金标准。应用准确率、精确度、查全率、F1指数等参数评估模型的性能。结果:经分割标注后共获取23 138张建模图像。共训练了7个模型,比较了不同的算法、图像处理方式和增强方法对模型的影响,选出准确率最高的ResNet-34模型作为最佳模型,其在测试集分类准确率达到93.31%,精确率为91.00%,查全率为90.50%,F1指数为91.50%。测试集的判读结果显示模型对7种核型的ANA图像的识别与人工判读的总体符合率达90.05%,其中对核仁型的判读精确度最高,符合率均达到了100.00%。结论:本研究构建的ANA自动判读系统雏形已基本具备判读ANA荧光核型的能力,对常见的、典型的、单一荧光核型的具有一定的准确性。
...不再出现此类内容
编辑人员丨1周前
-
基于近红外自体荧光显像的卷积神经网络在甲状旁腺识别中的应用
编辑人员丨1周前
目的:探讨基于近红外自体荧光显像的卷积神经网络(CNN)自动识别甲状旁腺的应用价值。方法:回顾性分析2020年8月至2022年3月在首都医科大学附属北京同仁医院耳鼻咽喉头颈外科接受甲状腺乳头状癌手术的83例患者临床资料,收集其术中甲状旁腺自体荧光图像共725幅,同时收集其中10例患者术区的非甲状旁腺荧光显像视频,截取非甲状旁腺荧光图像共928幅。将甲状旁腺及非甲状旁腺的荧光图像直接作为深度学习的输入特征,构建用于自动识别甲状旁腺的ResNet 34、VGGNet 16及GoogleNet模型。通过准确率、特异度、灵敏度、精确率、受试者工作特征曲线下面积(AUC)评估不同模型识别甲状旁腺的能力。另外,采集2022年3至5月行甲状腺手术13例患者的甲状旁腺荧光图像30幅,非甲状旁腺荧光图像35幅,对表现最好的CNN模型进行前瞻性测试。结果:83例患者中,男25例,女58例,年龄(46.7±12.4)岁。在二分类(甲状旁腺、非甲状旁腺)中,ResNet 34模型在不同的CNN模型中表现最好,识别甲状旁腺的准确率、特异度、灵敏度及精确率分别为97.6%、96.3%、99.3%及95.5%,AUC达到0.978(95% CI:0.956~0.991)。前瞻性测试中ResNet 34模型预测准确率达到93.8%,AUC为0.938(95% CI:0.853~0.984)。 结论:基于近红外自体荧光显像的深度CNN在自动识别甲状旁腺中具有良好的应用价值,可用于辅助甲状腺癌手术中甲状旁腺的识别和保护。
...不再出现此类内容
编辑人员丨1周前
-
构建基于ResNet-18的1型发作性睡病猝倒面容预测模型
编辑人员丨1周前
目的:应用深度学习图像识别网络ResNet-18,基于临床拍摄视频,建立猝倒面容预测模型。方法:本研究为横断面研究,收集2020至2023年在南昌大学第二附属医院首诊未经治疗的1型发作性睡病患者25例及健康对照25名,采集的图像预处理后,共获得1 180张图片,其中583张猝倒面容,597张正常面容。从中抽取90%作为训练集与验证集,随后数据扩增5倍,扩充后的数据集抽取80%作为训练集,20%作为验证集,即训练集数量为(583+597)×0.9×0.8×5=4 248,验证集数量为(583+597)×0.9×0.2×5=1 062,训练集与验证集用于训练参数建立模型,并通过五折交叉验证法进行训练,构建采用迁移学习方式的ResNet-18猝倒面容识别模型。原未扩增前图像抽取10%(118张)作为测试集,测试集数据不参与数据增强和模型训练,仅用于测试模型最终效果。最后将ResNet-18与VGG-16、ResNet-34和Inception V3深度学习模型进行比较,用受试者工作特征曲线评估ResNet-18图像识别网络在猝倒面容识别中的价值。结果:25例1型发作性睡病患者中,男15例,女10例,年龄[ M( Q1,Q3)]为14.0(11.0,20.5)岁;25名健康对照者中,男14名,女11名,年龄16.0(14.4,23.0)岁。ResNet-18图像识别网络在测试集中的总体准确率为90.9%,灵敏度为96.4%,特异度为85.2%,受试者工作特征曲线下面积为0.99(95% CI:0.96~1.00)。ResNet-18模型参数量为11.69 M,浮点运算量为1 824.03 M,单张图片识别时间为5.9 ms。 结论:基于深度学习图像识别网络ResNet-18构建的猝倒面容预测模型在猝倒面容的识别上有较高的准确率。
...不再出现此类内容
编辑人员丨1周前
-
基于ResNet50-OC模型的彩色眼底照片质量多分类方法效果评估
编辑人员丨1周前
目的:对基于深度学习的ResNet50-OC模型彩色眼底照片质量多分类的效果进行评估。方法:纳入2018年7月在南京医科大学附属明基医院收集的彩色眼底照片PD数据集及EyePACS数据集,临床医师根据眼底图像的成像质量将其大致分为质量较好、曝光不足、曝光过度、边缘模糊和镜头反光5类。在训练集中,每个类别包含1 000张图像,其中800张选自EyePACS数据集,200张选自PD数据集;在测试集中,每个类别包含500张图像,其中400张选自EyePACS数据集,100张选自PD数据集。训练集总计5 000张图像,测试集总计2 500张图像。对图像进行归一化处理和数据扩增。采用迁移学习方法初始化网络模型的参数,在此基础上对比当前深度学习主流分类网络VGG、Inception-resnet-v2、ResNet和DenseNet,选取准确率和Micro F1值最优的网络ResNet50作为分类模型的主网络。在ResNet50训练过程中引入One-Cycle策略加快模型收敛速度,得到最优模型ResNet50-OC并将其应用于眼底照片质量多分类,评估ResNet50与ResNet50-OC对眼底照片进行多分类的准确率和Micro F1值。结果:ResNet50对彩色眼底照片质量多分类准确率和Micro F1值明显高于VGG、Inception-resnet-v2、ResNet34和DenseNet。ResNet50-OC模型训练15轮对眼底图像质量多分类准确率为98.77%,高于ResNet50训练50轮的98.76%;ResNet50-OC模型训练15轮对眼底图像质量多分类的Micro F1值为98.78%,与ResNet50训练50轮的Micro F1值相同。结论:ResNet50-OC模型可以准确、有效地对彩色眼底照片质量进行多分类,One-Cycle策略可减少训练次数,提高分类效率。
...不再出现此类内容
编辑人员丨1周前
-
一种基于OCT图像的深度学习I和II型wAMD辅助分型方法
编辑人员丨1周前
目的::探讨基于光学相干断层扫描(OCT)图像的深度学习算法用于湿性年龄相关性黄斑变性(wAMD)的分型的可行性以达到辅助眼科疾病诊断的目的。方法::数据使用2018年6月至2019年6月在宁波市眼科医院门诊确诊为wAMD患者39例(46眼)。首先将资深眼科专家提供的每例患者AMD等级作为分型算法的金标准,再使用Resnet34模型结构输出预测分型结果并与金标准对比,不断进行参数微调直到损失收敛,最终实现自动判断患者疾病等级。结果::使用已训练的模型进行所有测试病例的预测,基于正确的病例数与所有测试病例数的比例作为算法最终的准确率,结果表明深度学习网络方法分型准确率,与普通医师wAMD分型准确率相比,高出20%。通过梯度加权的类激活映射可视化模型诊断依据可作为临床医师诊断的参考。结论::深度学习经OCT图像数据训练后对wAMD分型的准确率明显高于普通医师对wAMD的分型准确率。基于深度学习算法的wAMD分型结果可用于疾病的辅助诊断,缓解国内专业眼科医师紧缺的现状。
...不再出现此类内容
编辑人员丨1周前
