-
基于纹理特征和改进VGG的家蚕蛹雌雄识别方法
编辑人员丨1个月前
[目的]针对蚕种培育中人工分蛹效率低且易受到主观因素影响的问题,提出一种基于纹理特征和改进VGG的家蚕Bombyx mori蛹雌雄识别方法.[方法]利用透射变换矫正蚕蛹方向,截取家蚕蛹头尾图,以B通道图作为轮廓提取的基础,通过道格拉斯-普克(Douglas-Peucker,DP)算法,分析轮廓复杂性从而识别并获取家蚕蛹尾部图;采取掩膜消除背景干扰,通过多通道的特征融合图加强纹理信息;对Inception模块进行改进,将残差网络与改进后的Inception模块加入VGG模型中;利用数据增强技术扩充数据集;以精确率(precision)、召回率(recall)、精确率和召回率的调和平均F1分值以及准确率(accuracy)作为评价指标,分别对3种输入图片以及4种识别模型进行评估对比.[结果]结果表明,特征融合图在改进VGG模型上的家蚕雌蛹的精确率、召回率和F1分值分别为98.017%,94.794%和96.375%,雄蛹的精确率、召回率和F1分值分别为95.342%,98.231%和96.762%,识别家蚕雌雄蛹的准确率为96.580%.特征融合图识别家蚕雌雄蛹的准确率比原始灰度图的提升了 18.093%,改进VGG识别家蚕雌雄蛹的准确率比原始VGG的提升了2.257%.[结论]基于纹理特征和改进VGG的家蚕蛹雌雄识别方法能降低人工劳动时间,为实现家蚕蛹雌雄自动分拣提供基础.
...不再出现此类内容
编辑人员丨1个月前
-
非对称卷积核YOLO V2网络的CT影像肺结节检测
编辑人员丨2023/8/6
肺癌一直是严重威胁人类健康的疾病之一,肺结节作为早期肺癌的一个重要征象,在肺癌的早期诊断与治疗中具有重要的意义.传统的CT影像肺结节检测方法不仅步骤繁琐、处理速度慢,而且对于结节的检出率及定位精度都亟待提高.提出一种基于非对称卷积核YOLO V2网络的CT影像肺结节检测方法:首先将连续的CT序列叠加构造为伪彩色数据集,以增强病变和健康组织的差异;然后将含有非对称卷积核的inception V3模块引入到YOLO V2网络中,构造出一种适用于肺结节检测的深度网络,一方面利用YOLO V2网络在目标检测上的优势,另一方面通过inception V3模块在网络的宽度与深度上进行扩增,以提取更加丰富的特征;为进一步提高结节的定位精度,对损失函数的设计与计算方法也进行一定的改进.为验证所提检测模型的性能,从LIDC-IDRI数据集中选取1 010个病例的CT图像用于训练和测试,在大于3 mm的肺结节中,检测敏感度为94.25%,假阳性率为8.50%.实验表明,所提出的肺结节检测方法不仅可以简化肺部CT图像的处理过程,而且在结节检测率及定位精度方面均优于传统方法,可为肺结节检测提供一种新思路.
...不再出现此类内容
编辑人员丨2023/8/6
-
上海市放射卫生综合监测管理信息系统的建设与应用
编辑人员丨2023/8/6
目的 建设上海市放射卫生综合管理信息系统,为预防控制辐射危害因素提供基础数据.方法 通过梳理历史档案信息留存模式,汲取现行工作有效内容,借鉴国内在用信息平台,构建了适合上海市放射卫生管理的信息化平台.各级机构负责对自身所承担工作中产生的数据进行采集录入,由系统根据规则,对数据的性质进行判断,而后根据规范在市一级平台完成数据交互分析,行成了市、 区、 医疗机构三级平台管理模式.结果 2014年,系统项目立项,通过一年初步建成了健康档案、 环境监测、 业务预警、 统计报表为主的数据模块平台.从建档初期用户468家,截至2018年底,平台有效用户达到1241家.采集数据近30万条.结论 上海市放射卫生综合管理信息平台的建成,促进了上海市对于放射卫生信息管理的规范性和有效性,提供了可持续长期发展的监测模式,也利于为进一步政策管理或决策提供基础数据.
...不再出现此类内容
编辑人员丨2023/8/6
-
基于U-net的心脏自动勾画模型的临床应用及改进
编辑人员丨2023/8/5
目的:拟分析基于不同医院数据的心脏自动勾画模型在临床应用中的适用性及其改进方法.方法:首先,建立基于U-net和Inception模块的心脏自动勾画网络.其次,收集不同治疗中心的患者数据:中国科学技术大学附属第一医院65例(数据1)、MICCAI2019比赛数据50例(数据2)、数据1和2的混合数据(数据3)、郑州大学第一附属医院50例(数据4)和郑州大学第一附属医院100例(数据5),分别训练得到模型1~5.然后,以郑州大学第一附属医院59例患者作为测试集,使用形状相似性系数(DSC)评估该测试集在不同模型上的分割精度,比较模型之间的差别.最后,将模型3作为心脏预训练模型,采用数据5进行模型再训练,分别测试3组实验(20例/次×5次、10例/次×10次、5例/次×20次)对心脏预训练模型的改进情况.结果:测试集在模型1~5中的平均DSC为0.926、0.932、0.939、0.941和0.950.在再训练过程中,模型在20例/次×5次的实验中表现更稳定.结论:基于不同医院的数据训练模型在心脏自动勾画的临床应用上表现存在差异,使用本地医院数据进行训练的模型预测精度更高.对于非本地数据训练的模型,基于本地数据再训练可以有效提高模型预测的精度,其中以20例/次的再训练方式效果较好.
...不再出现此类内容
编辑人员丨2023/8/5
-
基于深度学习算法人工智能肺癌病理诊断模型的开发和应用
编辑人员丨2023/8/5
目的 基于深度学习算法开发一种能够分析肺组织病理切片并实时给出辅助诊断的人工智能(AI)模型.方法 回顾性收集2019年7月至2020年2月同济大学附属同济医院胸外科和呼吸科及上海市肺科医院超声科通过手术或超声/CT引导下穿刺活检获得的952例患者肺部病变组织H-E染色病理切片,包括鳞状细胞癌254例(26.68%)、腺癌278例(29.20%)、其他恶性肿瘤47例(4.94%)、良性病变373例(39.18%).依据病理亚型将切片分层随机采样并按照5:3:2的比例分入训练集(476例)、验证集(286例)和测试集(190例).训练集的每张切片随机截取10张放大400倍的单视野图像用于YOLO v3和Google Inception v3网络的训练,分别开发良恶性病变区域分割模块和病理亚型分类模块,最终构成双模块并联的AI模型.采用同样的方式在验证集中截取单视野图像,用于AI模型与病理医师的诊断能力对比.在测试集中,2名病理医师在显微镜下阅读整张切片进行诊断,其中1名会额外获得AI模型的辅助诊断信息,比较两者的诊断能力.结果 验证集共有2860张单视野图像,其中恶性病变图像1700张(59.44%),良性病变图像1160张(40.56%);AI模型鉴别良恶性病变的灵敏度优于病理医师[100%(1700/1700)vs 99.65%(1694/1700),χ2=4.167,P=0.031],病理亚型分类准确度与病理医师相当[95.52%(2732/2860)vs 94.30%(2697/2860),P>0.05],但前者分割恶性病变区域与金标准的重叠率、鉴别良恶性病变的特异度和准确度均低于后者[(92.72±12.75)%vs(95.42±6.99)%,t=7.628,P=0.001;97.67%(1133/1160)vs 99.31%(1152/1160),χ2=12.000,P=0.001;99.06%(2833/2860)vs 99.51%(2846/2860),χ2=4.364,P=0.037].测试集共包含190张病理切片,其中恶性病变117张,良性病变73张;获得AI模型辅助的病理医师和未获得辅助的病理医师在良恶性鉴别准确度[100%(190/190)vs 99.47%(189/190),P>0.05]和病理亚型分类准确度[96.84%(184/190)vs 93.68%(178/190),P>0.05]方面差异均无统计学意义;但前者的诊断用时短于后者[(12.53±10.93)s vs(79.95±40.02)s,t=28.939,P<0.01].结论 基于深度学习算法的AI模型能够协助病理医师快速分析H-E染色的肺组织病理切片,在不降低准确度的前提下有效提高了灵敏度和工作效率.
...不再出现此类内容
编辑人员丨2023/8/5
-
眼底图像硬渗出物的分割算法:基于区域分类引导的小波Y-Net的EX分割
编辑人员丨2023/8/5
目的 为消除视盘在硬渗出物(EX)分割过程中带来的影响提出了基于区域分类引导的小波Y-Net网络的EX分割算法.方法 该网络为端到端的眼底图像EX分割网络,通过区域分类引导EX分割联合实现了视盘区域检测和EX分割,有效地降低了视盘对EX分割的干扰.为了避免因下采样操作产生信息损失而导致微小EX区域分割失效的问题,该网络进一步引入了离散小波变换(DWT)和离散小波逆变换(IDWT)取代传统的池化下采样和上采样操作.同时,采用了基于残差连接的Inception模块获取多尺度特征.所提出的算法在IDRiD、e-ophtha EX数据库上进行训练和测试,并进行像素级评估.结果 区域分类引导的小波Y-Net网络在IDRiD、e-ophtha EX数据库上分别获得0.9858、0.9938的准确率以及0.9880、0.9986的受试者工作特征曲线下面积(AUC).结论 本文提出的方法能够有效地规避视盘的影响,保留图像细节信息,提升EX的分割效果.
...不再出现此类内容
编辑人员丨2023/8/5
-
基于多尺度特征感知的胸腔图像危及器官分割
编辑人员丨2023/8/5
医学图像危及器官自动分割是计算机辅助诊断中的重要组成部分,对辅助医生高质高效完成放射治疗有着极其重要的作用.胸腔CT图像对比度低,且各器官之间重叠交错、边界模糊,使得危及器官的精确分割具有较大的挑战性.提出一种多尺度特征感知的编码-解码网络模型(FA-Unet),实现胸腔CT图像危及器官的分割.针对胸腔中四类器官大小差异的问题,首先构建了输入感知模型,提取图像中各器官的多尺度特征.为了弥补编码与解码之间的语义鸿沟,在解码-编码中融入改进的inception模块.用空间金字塔卷积(ESP)与金字塔池化(PSP)模块代替传统的串行卷积运算,使得网络模型更为轻量化,在一定程度上缓解数据量不足带来的过拟合问题.采用一种联合Dice系数与交叉熵的损失函数训练分割网络,可解决胸腔CT图像中类别不平衡的问题.最后,在2019年ISBI发布的SegTHOR数据集上验证模型的有效性,该数据集共包括40例肺癌或霍奇金淋巴瘤患者的胸腔CT图像7390张.实验结果表明,胸腔CT图像各器官分割的Dice系数分别为食道0.7932、心脏0.9359、气管0.8549、主动脉0.8890,Hausdorff距离分别为食道1.4207、心脏0.2124、气管0.6273、主动脉0.8870.结果 表明,与同类型分割网络相比,模型可获得较好的分割性能,尤其在小目标器官的分割上取得竞争性优势.
...不再出现此类内容
编辑人员丨2023/8/5
