-
计算机视觉人工智能技术在腹腔镜胃癌根治术中对器械和脏器的检测识别:一项多中心临床研究
编辑人员丨5天前
目的:探究计算机视觉人工智能技术在腹腔镜胃癌根治术场景中对器械和脏器检测识别的可行性和准确性。方法:收集国内4家大型三甲医院[解放军总医院第一医学中心(3份)、辽宁省肿瘤医院(2份)、江苏省人民医院溧阳分院(2份)、复旦大学附属肿瘤医院(1份)]共计8份完全腹腔镜远端胃癌根治术手术视频。使用PR软件每5~10 s进行抽帧转换为图帧,转换后进行人工去重,去除明显雷同图帧和模糊图帧以确保质量。转换并去重后,抽帧图像共3 369张,图像分辨率为1 920×1 080 PPI,用LabelMe实例分割图像;共计23个类别包括静脉、动脉、缝针、持针器、超声刀、吸引器、出血、结肠、钳子、胆囊、小纱布、Hem-o-lok夹、Hem-o-lok钳子、电钩、小肠、肝圆韧带、肝脏、网膜、胰腺、脾脏、吻合器、胃和Trocar穿刺器。将抽帧图像按照9∶1比例随机分为模型训练集和模型验证集,使用YOLOv8深度学习框架进行模型训练和验证。采用精确度、召回率、精确度均值和平均精确度均值(mAP)评价检测识别准确性。结果:训练集3 032帧图像,23个类别共计30 895个实例分割数量;验证集337帧图像,共计3 407个实例分割数量。使用YOLOv8m模型训练,训练集损失曲线中损失值随迭代计算轮次增加而逐步平滑下降。训练集中,23个类别检测识别AP值均达0.90以上,23个类别mAP为0.99。验证集中,23个类别mAP为0.82。单一类别中,超声刀、持针器、钳子、胆囊、小纱布和吻合器的AP值分别为0.96、0.94、0.91、0.91、0.91和0.91。模型成功推理应用于时长为5 min的腹腔镜下缝合胃肠共同开口视频片段。结论:本研究初步证实了计算机视觉可高效准确并实时地检测腹腔镜胃癌根治术各手术场景中的脏器和器械。
...不再出现此类内容
编辑人员丨5天前
-
面部表情识别技术在精神疾病诊疗中的应用
编辑人员丨5天前
精神科医生对患者的观察是做出诊断的重要依据。但患者面部表情的改变往往是微妙且难以察觉的,自动面部表情识别系统则可作为一种辅助识别某些精神疾病的手段。面部表情是情感表达的重要方式之一,且不受文化背景、先天性失明等因素的影响。随着计算机科学的发展,面部表情识别方法亦在不断进步,其中,基于深度学习的面部表情识别,以其强大的信息处理能力,利用可训练的特征提取模型从图像和视频中自动学习表征来完成分类,极大地减少了对于面部物理模型和其他预处理技术的依赖。文章着重综述了面部表情识别系统在精神分裂症、抑郁症、边缘型人格障碍、孤独症谱系障碍、焦虑症、强迫症等疾病的诊断和治疗中的研究进展,以期进一步探索面部表情识别技术在精神科领域和远程心理干预方面的拓展应用。
...不再出现此类内容
编辑人员丨5天前
-
无感化管理在DSA耗材仓库管理中的应用
编辑人员丨5天前
目的:探讨无感化管理在DSA耗材仓库管理中的应用。方法:基于视频识别技术(radio frequency identification,RFID)的DSA耗材仓库管理系统,为每一个耗材提供身份标签,实现"一物一码"的管理,同时可在无人值守的环境中被物联网系统感知,实现高效的"无感化"的管理。结果:自2019年1月开始实施DSA智能仓库管理系统,至2019年6月总计687人次,医用耗材领用8 029件,实际使用7 318件,日清点准确率100%,每月盘点准确率100%;清点时间由原来人工4 h缩短至30~40 s实时更新清点,做到日日清,杜绝医用耗材多记漏记;通过医用耗材RFID射频标签实现了耗材的"一物一码"管理,完成了医用耗材的全程追溯跟踪,准确率100%。结论:通过RFID技术,物联网"耗材智能管理"系统,将整个DSA耗材库房打造为"无人值守的智能仓库"。仓库内的耗材,可在无人值守的环境下进行耗材的自动化记录,实现大量医用耗材的"无感化"管理,创造性的单耗材"生命树"追溯系统,实现了耗材"向前可追溯,向后可追踪"的全生命周期管理,促进医用耗材合理规范使用,保障医疗质量与安全。
...不再出现此类内容
编辑人员丨5天前
-
深度学习技术识别喉返神经在经腋窝腔镜甲状腺手术中的探索
编辑人员丨5天前
目的:喉返神经(recurrent laryngeal nerve,RLN)是腔镜甲状腺手术中需重点识别和保护的结构。本研究旨在探索深度学习技术识别RLN在经腋窝入路腔镜甲状腺手术中的应用价值。方法:收集2020年7月1日至2021年5月1日在北京协和医院基本外科操作的,留存了完整视频资料的经腋窝入路腔镜甲状腺手术录像。两位资深甲状腺外科医师选取其中包含RLN的视频片段,经过训练的标注人员对RLN的轮廓进行描绘标注,并经两位甲状腺外科医师审校确认。视频资料用随机数方法按照5∶1的比例分为训练集及测试集,并根据RLN与周围组织的辨识度分为高、中、低辨识度。采用基于PSPNet的语义分割模型进行训练,使用ResNet50作为主干网络提取特征,同时结合金字塔池化模型融合多尺度特征,最终根据交并比(insertion over union, IOU)评判深度学习神经网络对RLN具体位置预测的能力。所有资料使用R 4.0.2版本分析。结果:共38个视频中累计35 501帧图像纳入本研究,其中32个视频共29 704帧图像作为训练集,6个视频共5 797帧图像作为测试集。当IOU阈值设为0.1时,模型在高、中、低辨识度组中的灵敏度和精确率分别达到了100.0%/92.1%、95.8%/80.2%及81.0%/80.6%。而当IOU阈值提高到0.5时(代表有效定位RLN),灵敏度和精确率则分别为92.6%/85.3%、71.7%/60.5%及38.1%/37.9%。这说明本模型在辨识度中高时可很好地提示RLN的位置和走行。漏检通常因目标过小、边界不明确所致。结论:基于深度学习的人工智能RLN识别在腔镜甲状腺手术视频中是可行的,有潜在的应用价值,有可能帮助外科医生降低手术中误损伤风险,提高手术安全性。
...不再出现此类内容
编辑人员丨5天前
-
基于深度学习的内镜超声胆管扫查辅助分站系统构建
编辑人员丨5天前
目的:构建基于深度学习的人工智能内镜超声(endoscopic ultrasonography,EUS)胆管扫查辅助分站系统,以期辅助医师学习多站成像技术,提高操作水平。方法:回顾性收集武汉大学人民医院和武汉协和医院2016年5月—2020年10月522例EUS视频资料,基于视频截取图像,获得来自武汉大学人民医院的3 000张白光胃镜、31 003张超声胃镜图像和来自武汉协和医院的799张超声胃镜图像,用于EUS胆管扫查系统的模型训练和模型测试。模型包括:白光胃镜图像过滤模型,标准站图像与非标准站图像区分模型和EUS胆管扫查标准图像分站模型,用以将标准图像分为肝窗、胃窗、球窗、降窗。然后从测试集中随机抽取110张图像进行人机大赛,比较专家、高级内镜医师与人工智能模型对胆管扫查多站成像每个站点识别的准确度。结果:白光胃镜图像过滤模型准确率为100.00%(1 200/1 200),标准站图像与非标准站图像区分模型准确率为93.36%(2 938/3 147),EUS胆管扫查标准图像分站模型在内部测试集中各分类的准确率分别为肝窗97.23%(1 687/1 735),胃窗96.89%(1 681/1 735),球窗98.73%(1 713/1 735),降窗97.18%(1 686/1 735);外部测试集中准确率分别为肝窗89.61%(716/799),胃窗92.74%(741/799),球窗90.11%(720/799),降窗92.24%(737/799)。人机大赛中,模型分站的正确率为89.09%(98/110),高于内镜医师[85.45%(94/110),74.55%(82/110),85.45%(94/110)],接近专家水平[92.73%(102/110),90.00%(99/110)]。结论:本研究构建了一种基于深度学习的EUS胆管扫查系统,可以较为准确地实时辅助内镜医师进行标准多站扫查,提高EUS完整性及操作质量。
...不再出现此类内容
编辑人员丨5天前
-
基于高级调度在线生命支持系统实施电话指导心肺复苏的新策略
编辑人员丨5天前
院外心脏骤停(out-of-hospital cardiac arrest, OHCA)是全球公认威胁人类健康最为严重的疾病之一,欧洲每年发生约28万例、美国约38万例、我国约55万例 [1,2,3]。心肺复苏(cardiopulmonary resuscitation,CPR)是全球公认救治心脏骤停的最有效措施,且越早启动CPR预后越好,早期高质量CPR对于恢复自主循环、降低病死率和致残率,并提高患者生存质量至关重要 [4,5,6]。但由于受CPR等急救知识普及率和法律保障不健全等因素的制约,我国旁观者实施CPR的比例较低,报警人第一时间不能正确识别是否心脏骤停,或是不会、不敢、也不愿意尽快实施CPR,是导致我国OHCA的病死率居高不下重要因素之一。为此,在急救报警阶段,如何实现通过语音或视频第一时间快速识别患者是否心脏骤停,并通过电话或者更先进的技术手段指导报警人对患者实施CPR是提高OHCA救治成功的关键所在,第一时间实施电话指导CPR(telephone cardiopulmonary resuscitation, T-CPR)已成为全球心肺复苏的研究热点问题 [7,8,9]。尽管国内已有应用美国医疗优先调度系统(medical priority dispatch system, MPDS)指导救治心脏骤停的报道,但也存在诸多问题 [10,11],本文结合国内外T-CPR的研究进展,重点介绍我国自主研发的基于5G技术高级调度在线生命支持系统(advanced dispatch online life support system,ADLS)实施T-CPR的研究设计和临床应用,对未来提高我国OHCA急救能力具有重要的意义。
...不再出现此类内容
编辑人员丨5天前
-
深度学习技术识别腹腔镜手术视频中肾动脉的可行性
编辑人员丨5天前
目的:探讨深度学习技术在经腹膜后入路腹腔镜肾脏手术视频中对肾动脉识别的可行性。方法:回顾性分析2020年1月至2021年7月北京协和医院实施的87例腹腔镜经腹膜后入路肾脏手术视频资料,包括根治性肾切除术、肾部分切除术、半尿路切除术。由2名泌尿外科医生筛选出包含肾动脉的视频片段,经过抽帧、标注、审核、校对后,用随机数字表法按4∶1比例将标注目标分为训练集和测试集。训练集用于训练神经网络模型,测试集用于测试不同难度场景下神经网络识别肾动脉的能力,统一输送至YOLOv3卷积神经网络模型进行训练。测试集根据2名高年资医生意见,按肾动脉与周围组织的区分度分为高、中、低辨认度。高辨认度即肾动脉干净,暴露面积大;中辨认度为肾动脉有一定程度浸血,暴露面积中等;低辨认度为肾动脉暴露面积小,常位于镜头边缘,浸血严重,可能存在镜头模糊。标注人员在手术视频中逐帧标注肾动脉真值框。所有图像经过归一化、预处理后输入神经网络模型进行训练。神经网络输出肾动脉预测框,与真值框重合的交并比(IOU)高于设定的阈值则判定为预测正确。记录测试集神经网络测试结果,根据IOU计算敏感性、精确率。结果:本研究87个视频共提取5 457帧图像,其中49个视频片段共4 490个目标为训练集,38个视频片段共1 135个目标为测试集。训练集中13个视频1 149个目标为高辨认度,17个视频1 891个目标为中辨认度,19个视频1 450个目标为低辨认度。测试集中,9个视频267个目标为高辨认度,11个视频519个目标为中辨认度,18个视频349个目标为低辨认度。测试集IOU阈值为0.1时,敏感性和精确率分别为52.78%和82.50%;IOU阈值为0.5时,敏感性和精确率分别为37.80%和59.10%。IOU阈值为0.1时,高、中、低辨认度组的敏感性和精确率分别为89.14%和87.82%、45.86%和78.03%、32.95%和76.67%。实时手术视频中YOLOv3算法的帧率≥15帧/秒。神经网络对于腹腔镜肾脏手术视频中肾动脉识别的误检率和漏检率分别为47.22%和17.49%(IOU=0.1)。误检原因主要为相似组织、反光导致的误识别,漏检主要原因为存在图像模糊、浸血、暗光、筋膜干扰、器械遮挡等。结论:基于深度学习的肾动脉识别技术是可行的,或可协助术者在术中快速识别并保护肾动脉,提高手术安全性。
...不再出现此类内容
编辑人员丨5天前
-
人工智能技术在胎儿超声心动图四腔心切面筛查中的应用
编辑人员丨5天前
目的:探讨人工智能技术在胎儿超声心动图四腔心切面中对正常、异常胎心筛查的应用价值。方法:选取北京安贞医院母胎医学研究北京市重点实验室数据库中正常和异常收缩末期四腔心切面静态图片3 996张和动态视频图像450幅作为训练集、测试集和验证集,对DGACNN模型进行训练、测试和验证。①分别选取正常、异常图片各200张,同时对本模型、DGACNN-ALOCC模型及其他达到最先进水平的分类模型(Densenet,Resnet50,InceptionV3,InceptionResnetV2)进行识别,并对结果进行比较。②将胎儿心脏超声医师分为初级、中级和高级三组,每组3人,分别选取正常、异常图片各100张,让各组医师和本模型分别对图像进行识别,每组平均分记为该组的分数,比较DGACNN模型与胎儿心脏超声学者识别的结果。结果:①假阳性率(FPR)在20%范围内时,DGACNN模型的识别准确率最高,为0.850,其他各模型识别准确率分别为DGACNN-ALOCC 0.835,Densenet 0.780,Resnet50 0.700,InceptionV3 0.670,InceptionResnetV2 0.650。②FPR在20%范围内时,DGACNN模型的ROC曲线下面积最大,为0.881,其他各模型ROC曲线下面积分别为DGACNN-ALOCC 0.864,Densenet 0.850,Resnet50 0.822,InceptionV3 0.779,InceptionResnetV2 0.703。③FPR在20%范围内时,高级胎儿心脏超声医师组的平均识别准确率最高,为0.863,其次为DGACNN模型,平均识别准确率为0.840,高于初级、中级组平均识别准确率0.760、0.807;DGACNN模型平均识别准确率高于初级、中级和高级三组的总平均识别准确率(0.810)。结论:人工智能技术在胎儿超声心动图四腔心切面筛查中是可行的,且识别准确率较高。
...不再出现此类内容
编辑人员丨5天前
-
深度学习技术在辅助结直肠腺瘤浸润深度鉴别中的应用研究
编辑人员丨5天前
目的:研究深度学习技术在肠镜电子染色模式下辅助内镜医师鉴别结直肠腺瘤浸润深度的价值。方法:回顾性收集2016年11月—2021年6月武汉大学人民医院、南方医科大学深圳医院和宜昌市第一人民医院的3 714个病例的13 246张电子染色图像,构建深度学习模型,对结直肠腺瘤的黏膜下深层浸润和非深层浸润进行鉴别,并在独立测试集与外部测试集中验证模型的性能。使用完整的测试集对比5名内镜医师与深度学习模型的诊断水平。前瞻性收集2021年1—6月来自武汉大学人民医院的35个高清内镜视频,验证在模型辅助下内镜医师的诊断效果。结果:该模型在图片测试集中的准确率93.08%(821/882),约登指数0.86,优于内镜医师[最高者分别为91.72%(809/882)和0.78]。在视频中该模型的准确率达97.14%(34/35),约登指数0.94。在模型辅助下,内镜医师的准确率显著提升[最高者97.14%(34/35)]。结论:本研究开发的基于深度学习的结直肠腺瘤浸润深度鉴别系统能够准确地识别黏膜下深层浸润病灶,辅助内镜医师提升识别深层浸润病灶的准确率。
...不再出现此类内容
编辑人员丨5天前
-
深度学习技术识别喉返神经在经胸乳入路腔镜甲状腺手术中的探索
编辑人员丨5天前
目的:探索深度学习技术识别喉返神经(recurrent laryngeal nerve,RLN)在经胸乳入路腔镜甲状腺手术(endoscopic thyroidectomy,ETE)中的应用价值。方法:收集2020年2月至2021年8月北京协和医院基本外科进行的经胸乳入路ETE视频。经2名甲状腺医师的筛选后,符合条件的手术视频根据一位高年资医师的意见分为低辨识度及高辨识度组,经过抽帧、标注、审核与校对后,按照随机数方法以5:1的比例分为训练集及测试集,统一输送至D-Linknet模型进行训练。根据交并比计算测试集中的灵敏度、精确率及平均Dice系数。结果:46个视频共153 520帧图片纳入了本研究。其中训练集共39个视频131 039帧,测试集共计7个视频22 481帧。交并比阈值为0.1及0.5时,高辨识度组中灵敏度及精确率分别为92.9%/72.8%及85.8%/67.2%,而在低辨识度组中则分别为47.6%/54.9%及37.6%/43.5%,平均Dice系数在两组中分别为0.781及0.663,证实了该模型对RLN具有较好的识别能力。结论:基于深度学习的人工智能RLN识别在经胸乳入路ETE视频中可行,有可能帮助外科医生降低手术中误损伤风险,提高手术安全性。
...不再出现此类内容
编辑人员丨5天前
