2025年PyTorch框架基础操作实操试卷及答案.docxVIP

2025年PyTorch框架基础操作实操试卷及答案.docx

本文档由用户AI专业辅助创建,并经网站质量审核通过
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

2025年PyTorch框架基础操作实操试卷及答案

考试时间:______分钟总分:______分姓名:______

```python

#Python代码

#题目1:张量创建与属性

#请将以下代码片段补充完整,创建一个形状为(2,3)的全零张量,并将其存储在变量z中。

#然后打印z的形状(shape)和数据类型(dtype)。

importtorch

#请在此处补充代码

#print(z.shape)

#print(z.dtype)

#题目2:张量索引与切片

#请将以下代码片段补充完整,从张量x中提取出元素[1,3,5],结果存储在变量sub_tensor中。

#x已经定义如下:

x=torch.tensor([[0,1,2],[3,4,5],[6,7,8]])

#请在此处补充代码

#print(sub_tensor)

#题目3:张量形状变换

#请将以下代码片段补充完整,将张量y变成形状为(6,1)的张量,结果存储在变量y_reshaped中。

#注意保持元素顺序和总数不变。

y=torch.tensor([[1,2],[3,4],[5,6],[7,8],[9,10],[11,12]])

#请在此处补充代码

#print(y_reshaped.shape)

#题目4:张量合并与数学运算

#请将以下代码片段补充完整,完成以下操作:

#1.创建一个形状为(3,4)的随机初始化张量r1,所有元素从0到1的均匀分布。

#2.创建一个形状为(3,4)的全1张量r2。

#3.计算r1和r2的逐元素乘积,结果存储在变量prod中。

#4.计算r1的所有元素求和,结果存储在变量sum_r1中。

#请在此处补充代码

#print(prod)

#print(sum_r1)

#题目5:数据加载准备

#请将以下代码片段补充完整,使用TensorDataset将张量features和labels包装成一个数据集对象dataset。

#features和labels已经定义如下:

features=torch.tensor([[1.0,2.0],[3.0,4.0],[5.0,6.0]])

labels=torch.tensor([0,1,0])

#请在此处补充代码

#题目6:神经网络前向传播

#请将以下代码片段补充完整,完成一个简单神经网络的前向传播。

#假设我们有一个输入张量input_tensor(形状为batch_size,input_features)。

#我们使用一个线性层lin1(输出特征为5)和一个ReLU激活函数,然后通过另一个线性层lin2(输出特征为1)得到输出。

#请初始化lin1和lin2的权重和偏置(可以使用简单的全0或全1初始化,或使用nn.Linear),

#完成前向传播,最终输出存储在变量output_tensor中。

input_tensor=torch.tensor([[1.0,2.0],[0.5,-1.5]])

#请在此处补充代码

#print(output_tensor)

#题目7:梯度计算

#请将以下代码片段补充完整,完成梯度计算的示例。

#1.创建一个需要梯度的张量a,初始化为2.0,并设置requires_grad=True。

#2.基于a,计算b=a*a*a。

#3.计算b的关于a的梯度,并将结果保存在grad_a变量中(提示:可以使用grad()函数或a.backward())。

#请在此处补充代码

#print(grad_a)

#题目8:设备管理

#请将以下代码片段补充完整,完成张量在CPU和GPU之间的移动操作。

#1.创建一个形状为(3,3)的随机初始化张量cpu_tensor。

#2.检查当前是否有可用的GPU设备,如果有,将cpu_tensor移动到GPU上,存储在变量gpu_tensor中。

#如果没有可用的GPU,则保持cpu_tensor在CPU上。

#3.打印cpu_tensor和gpu_tensor的设备信息(device)。

#请在此处补充代码

#print(cpu_tensor.device)

#print(gpu_tensor.deviceifgpu_tensorinlocals()els

文档评论(0)

155****9885 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档