- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
利用深度学习自动识别胎儿颜面部超声标准切面
导语:?近年来,由于高性能计算机的发展以及数据集规模的扩大,深度学习模型在医学图像分类检测领域内取得了广泛应用。利用深度学习从大规模医学图像数据库中训练自动诊断模型正引起广泛的研究兴趣。 近年来,由于高性能计算机的发展以及数据集规模的扩大,深度学习模型在医学图像分类检测领域内取得了广泛应用。利用深度学习从大规模医学图像数据库中训练自动诊断模型正引起广泛的研究兴趣。
方法
1.卷积神经网络
受到生物神经系统的启发,卷积神经网络(CNN)在物体识别和检测领域已经获得了巨大成功。不同于传统的神经网络,CNN结合了局部连接和权值共享策略,因此,使得卷积神经网络的参数大大减少,从而构建更深层数的卷积网络成为可能。CNN的主要组成成分是卷积层,卷积层包含了许多神经元,每个神经元带有一组可学习的权值和一个偏置项。这些权值会在网络训练的过程中不断改变。每个神经元对于前一层的局部区域进行感知,即将该局部区域作为其输入。假定χlj是第l层卷积层的第j个神经元的输出,且是第l-1层的神经元输出,M表示当前神经元的局部输入大小,那么χlj可以表示为:
其中表示连接至前一层第m个神经元输出的权值,δ(.)表示神经元激活函数(一般常用ReLU非线性单元)。池化层(poolinglayer)和全连接层是CNN另一主要成分。
在本文中,我们将分类层softmax层作为全连接层的附属层。一般而言,在卷积层之间会加入池化层,池化层本身不带参数,其作用是减少卷积层输出尺寸大小,从而大大减少整个网络的参数数量,同时增强卷积层输出特征的空间稳定性。因此,池化层在一定程度上可以避免网络出现过拟合的情况。全连接层(fully-connectedlayer,FClayer)类似于卷积层,同样是由许多神经元组成,但这里的神经元与前一层输入之间是全连接的方式,即每个神经元与前一层所有输入进行作用。Softmax层是CNN网络的最后一层结构,其功能是对网络提取的特征进行分类。为了评价网络预测输出与输入图像真实标签之间的一致性,这里用到了损失函数。具体而言,假定为输入图像,是其对应的真实标签,则损失函数可以表示为:
其中,表示网络对输入图像Ii的预测类别概率输出,此外,是指示函数,,当Ck=Ti时,其输出值为1,反之则为0;fj是网络对于图像Ii在softmax层前一层第j个神经元的输出。CNN训练的目的就是获取合适的权值参数,使得整个网络能够针对目标数据自动学习合适的特征表达,从而对于未知样本得到比较好的预测结果。
2.CNN结构设置
对于像CNN-16这种深度的网络,直接随机初始参数的情况下训练会出现收敛速度极慢,反向传播更新参数过程会出现梯度消失等情况,因此,这里我们直接采用迁移学习的方式来初始化设置网络,相应结果表示为CNN-16-TR。表1说明了实验中CNN的具体结构细节。
3.数据增强
CNN网络作为一种深度学习模型,其对于训练数据量具有极大的要求。某种程度上,数据量的大小直接决定了网络的规模,以及网络的可训练性。而临床上,收集大量的且具有代表性的医学图像本身就相当困难,再加上这些数据还需要人工进行标注,因此,构建这种高质量大规模的医学图像数据集极具挑战。而通过保持图像本身标签不变的情况下,对图像数据进行多种变换来增大数据集的规模是一种可行且有效的数据增强方式。通过这种数据增强方式,我们可以大大增大数据集规模,从而解决医学图像数据集因为数据量不足而无法训练CNN模型的情况。
4.迁移学习
即便CNN网络具有极强的特征表达能力,在很多医学图像上得到了成功应用,但训练的数据量依旧是最大的限制。因此,过拟合问题是有监督深度模型始终无法回避的一个话题。在这种情况下,先从大规模的数据集上预训练一个CNN网络,而后将该网络的参数复制到目标网络中是一个有效的网络初始化方式,可以大大减少网络训练速度,同时避免训练数据量过小而出现的过拟合现象。
目前,最常见迁移学习方法是首先在其他数据集上训练一个基础网络,然后将该网络的前n层参数复制到目标网络对应层,而后目标网络余下层则随机初始化参数。根据训练的方式不同,迁移学习可以分为两种,一种是保持这些迁移过来的学习层参数固定,训练过程中只改变后面随机初始化的学习层参数;另一种则是在训练过程中微调这些迁移的学习层参数。根据研究结果,由于ImageNet数据集与我们FFSP数据集之间图像差异巨大,因此,迁移层数较多的情况下,采取前一种固定迁移参数的训练方式并不适用,因此,在本研究中,我们采取微调的迁移学习方式。
实验与结果
1.数据集与系统设置
2.定性分析评价
图4中,(c)为CNN-8-TR提取的训练集特征,可
文档评论(0)