文本摘要:Transformers在文本摘要中的应用:2.深度学习基础回顾.docxVIP

文本摘要:Transformers在文本摘要中的应用:2.深度学习基础回顾.docx

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

PAGE1

PAGE1

文本摘要:Transformers在文本摘要中的应用:2.深度学习基础回顾

1深度学习基础概念

1.1神经网络的基本结构

神经网络的基本结构由输入层、隐藏层和输出层组成。每一层由多个神经元(或称节点)构成,神经元之间通过权重连接。权重是神经网络学习的关键参数,通过调整权重,网络可以学习到数据的内在模式。

1.1.1输入层

输入层接收原始数据,例如图像像素值、文本向量或传感器数据。

1.1.2隐藏层

隐藏层是神经网络的“大脑”,负责处理和学习输入数据的复杂特征。每一层的神经元通过加权和与激活函数计算输出,传递给下一层。

1.1.3输出层

输出层给出神经网络的最终预测,如分类结果或数值预测。

1.2反向传播算法详解

反向传播算法是深度学习中用于训练神经网络的核心算法。它通过计算损失函数对权重的梯度,来调整权重,最小化预测与实际结果之间的差距。

1.2.1损失函数

损失函数衡量模型预测与实际值之间的差异,常见的损失函数有均方误差(MSE)和交叉熵损失(Cross-EntropyLoss)。

1.2.2梯度下降

梯度下降是一种优化算法,通过沿着损失函数的梯度方向调整权重,以找到损失函数的最小值。

1.2.3反向传播过程

前向传播:输入数据通过网络,计算预测输出。

计算损失:使用损失函数计算预测输出与实际输出之间的差异。

反向传播:从输出层开始,向后计算损失对每个权重的梯度。

权重更新:使用梯度下降算法更新权重。

1.2.4代码示例

importnumpyasnp

#假设有一个简单的神经网络,只有一个隐藏层

#输入层有2个神经元,隐藏层有3个神经元,输出层有1个神经元

input_data=np.array([1.0,2.0])

weights={hidden:np.array([[0.1,0.2,0.3],[0.4,0.5,0.6]]),

output:np.array([0.7,0.8,0.9])}

bias={hidden:np.array([0.1,0.2,0.3]),

output:np.array([0.1])}

#激活函数

defsigmoid(x):

return1/(1+np.exp(-x))

#前向传播

hidden_layer_input=np.dot(input_data,weights[hidden])+bias[hidden]

hidden_layer_output=sigmoid(hidden_layer_input)

output_layer_input=np.dot(hidden_layer_output,weights[output])+bias[output]

output=sigmoid(output_layer_input)

#假设真实输出为1.0

target=1.0

#计算损失

loss=(target-output)**2

#反向传播计算梯度

output_error=(target-output)*output*(1-output)

hidden_error=output_error*weights[output]*hidden_layer_output*(1-hidden_layer_output)

#更新权重和偏置

learning_rate=0.1

weights[output]+=hidden_layer_output*output_error*learning_rate

weights[hidden]+=input_data[:,None]*hidden_error*learning_rate

bias[output]+=output_error*learning_rate

bias[hidden]+=hidden_error*learning_rate

1.3深度学习中的优化器

优化器用于更新神经网络的权重,以最小化损失函数。常见的优化器有随机梯度下降(SGD)、动量(Momentum)、RMSprop和Adam。

1.3.1Adam优化器

Adam(AdaptiveMomentEstimation)结合了动量和RMSprop的优点,通过计算梯度的一阶矩估计和二阶矩估计来调整学习率。

1.3.2代码示例

importnumpyasnp

#Adam优化器的实现

classAdamOptimizer:

def__init__(s

您可能关注的文档

文档评论(0)

找工业软件教程找老陈 + 关注
实名认证
服务提供商

寻找教程;翻译教程;题库提供;教程发布;计算机技术答疑;行业分析报告提供;

1亿VIP精品文档

相关文档