深度学习基础与实践 课件 3.3.5PyTorch基本使用.pptx

深度学习基础与实践 课件 3.3.5PyTorch基本使用.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

PyTorch基本使用;Tensor张量的概念;Tensor实际上就是一个多维数组(multidimensionalarray);数据类型;创建张量的方法

torch.tensor():用现有数据创建张量

如torch.tensor([[1.,-1.],[1.,-1.]])

torch.*:创建具有特定大小的张量

如torch.randn()#满足标准正态分布的一组随机数据

torch.*_like:创建与另一个张量具有相同大小和相似类型的张量

如torch.rand_like()

tensor.new_*:创建与其他张量具有相似类型但大小不同的张量;查看张量的属性

查看Tensor类型

tensor1=torch.randn(2,3) #形状为(2,3)一组从标准正态分布中随机抽取的数据

tensor1.dtype#torch.float32

查看Tensor维度

tensor1.ndim#查看维度

查看Tensor形状或尺寸

tensor1.shape#查看形状或尺寸

查看Tensor是否存储在GPU上

tensor1.is_cuda

查看Tensor的梯度

tensor1.grad;Tensor在CPU、GPU、numpy之间的转换

CPUtensor转GPUtensor

cpu_tensor.cuda()

GPUtensor转CPUtensor

gpu_tensor.cpu()

numpy转为CPUtensor

torch.from_numpy(numpy_test)

CPUtensor转为numpy数据

cpu_tensor.numpy()

注意:

GPUtensor不能直接转为numpy数组,必须先转到CPUtensor。

如果tensor是标量的话,可以直接使用item()函数(只能是标量)将值取出来:loss_output.item();一个张量tensor可以从Python的list或序列构建;一个空张量tensor可以通过规定其大小来构建;用Python的索引和切片来获取和修改一个张量tensor中的内容;每一个张量tensor都有一个相应的单一数据类型的一维数组torch.Storage用来保存其数据;改变tensor的函数操作会用一个下划线后缀来表示;函数torch.squeeze(input,dim=None,out=None)对数据的维度进行压缩;数学操作;函数torch.abs(inputs,out=None)用来计算输入张量的每个元素的绝对值;函数torch.add(input,value,out=None),对张量input逐元素加上标量value后得到一个新的张量;数理统计;函数torch.mean(input),返回输入张量所有元素的均值;函数torch.mean(input,dim,out=None),返回输入张量指定维度上的所有元素的均值;比较操作;函数torch.eq(input,other,out=None),比较元素相等性;函数torch.eq(input,other,out=None),比较元素相等性;张量tensor的使用;构建一个简单的神经网络

1.首先导入PyTorch包。2.设置网络用到的权重。3.编写向前传播、向后传播过程。4.计算损失函数。5.权重。

文档评论(0)

balala11 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档