【图像彩色化方法基础理论概述2000字】.docxVIP

【图像彩色化方法基础理论概述2000字】.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

图像彩色化方法基础理论概述

一般来说,在图像彩色化的任务中,需要通过一个输入的灰度图像来生成其对应的彩色图像。然而这个问题的实验结果不能一概而论,因为这个结果是多模态的,也就意味着同样的灰度图像可能会有多个生成的彩色图像结果[13]。过去的模型一般依赖于输入的大量的灰度图片,需要人工干预且着色速度慢。而现在,深度学习在图像自动着色方面取得了显著的成功。它无需额外的人工输入即可从灰度变为彩色。这是由于这种模型在彩色化过程中能够捕捉和使用语义信息,即能够分析图像实际上是什么,本章介绍使用这类模型需要用到的理论基础知识。

(一)RGB与Lab颜色空间

RGB颜色空间是目前最常见、使用最广的一种颜色空间,目前大多数图像都使用RGB颜色空间来定义。而Lab是一种脱离设备颜色模型,因为它描述的不是设备生成颜色所需的电子颜料的数量,只是颜色的一种显示方式。这一颜色模型更多的是反映人对颜色的一种直观的感受。L,a,b三者的数值能够包含正常人能够观察到的所有颜色。Lab颜色模型是由亮度(L)和a、b两个色彩方面的要素组成。其中,L表示亮度大小,a的值表示的色彩范围是从洋红色至绿色,b的值表示的色彩范围是从黄色至蓝色。L的范围在[0,100],当L的值为50时,表示的是50%的黑色。a的范围和b的范围都是[-128,127],其中当a的值为127时颜色显示为红色,当a的大小逐渐变为-128时图像颜色就变为绿色;同上所述,当b的值为+127图像颜色显示为黄色,b为-128图像颜色转变成蓝色。L,a,b

三个值交互变化,可以产生RGB颜色空间内的大多数颜色[14],其颜色空间如

红黑i

黑i

L(亮度轴)

+b黄

绿

-6

+a

图2所示:

图1Lab颜色空间

2

(二)残差神经网络(ResNets)

卷积神经网络(CNN)是深度学习领域使用最广泛的网络之一,相较于传统的全连接层神经网络,它最大的特点就是局部感知以及权值共享。局部感知使得模型整体简单,降低了其复杂性,也就是降低了过拟合的可能性。权值共享大大减少了模型中权值的数量,使网络占用内存更小,易于优化。此外,卷积神经网络非常适用于图像处理相关的问题,这是因为这种网络能够直接将图像作为输入,而不需要使用传统的特征提取识别,来构造复杂的数据重建,对二维图像的图像特征提取,例如图像的颜色,形状等,有着很好的效果。其中,在一些识别应用中,失真不变的一些位移,缩放功能效果最好[15]。

在神经网络中,深度和宽度是影响该网络性能和复杂度的最重要因素,同时多种研究表明[15],增加网络的深度比增加网络的宽度对优化网络的性能更加有

输入业

卷积层

(输入通道3,

输出通道64,

卷积核大小7,

移动步长2,

填充0的数里3)

批里归一化

激活层

卷积层(3×3,64)

池化层(最大)

(过滤器大小3,

移动步长2,

填充0的数量1)

卷积层(3x3,64)

批量归一化、激活

卷积层(3×3,64)

批量归一化、激活

卷积层(3×3,128)

批量归一化、激活

卷积层(3×3,128)

批量归一化、激活

卷积层(3×3,128)

批量归一化、激活

卷积层(3×3,128)

批量归一化、激活

地化层(平均)

(过滤器大小2)

线性层

(输出大小10)

批里归一化、激活

卷积层(3x3,64)

批量归一化、激活

元素相加

元素相加

元素相加

霜嘉

图2残差神经网络结构图

效,因此,传统的VGG网络架构一直在试图增加网络的深度,使网络性能有更好的提升。但是,当深度增加到一定程度时,网络的训练会变得非常困难。其原因是网络的训练是基于梯度下降算法的,当产生误差时,误差经过多层的反向传播,可能使梯度产生过大或过小的严重错误。例如,梯度过小会使传播回来地训练误差过于小,而梯度过大会导致模型训练出现非数。虽然现在有一些用来处理

3

这个问题的方法,例如批规范化操作(batchnormalization)和其他权重初始化的特殊方法,使得网络训练可以恢复正常了,但是又有新的问题产生:当我们继续增加网络的深度时,训练得到的结果准确度不增反减。这一结论令人难以理解,一个深层的神经网络训练效果却不如对应的浅层神经网络。这一现象在一段时间内困扰着更深层卷积神经网络的设计、训练和应用。但随着残差神经网络(ResNets)的出现,这一问题得到了解决。残差神经网学习的是其残差函数映射,这种方式显著地改进了卷积神经网络的网络结构,它可以将多层网络组合起来,拟合成一

您可能关注的文档

文档评论(0)

鼎天教育 + 关注
实名认证
文档贡献者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2023年04月13日上传了教师资格证

1亿VIP精品文档

相关文档