如何解决pytorch损失反向传播后梯度为none的问题(python,开发技术)

时间:2024-05-04 16:16:34 作者 : 石家庄SEO 分类 : 开发技术
  • TAG :

    %E5%A6%82%E4%BD%95%E8%A7%A3%E5%86%B3pytorch%E6%8D%9F%E5%A4%B1%E5%8F%8D%E5%90%91%E4%BC%A0%E6%92%AD%E5%90%8E%E6%A2%AF%E5%BA%A6%E4%B8%BAnone%E7%9A%84%E9%97%AE%E9%A2%98

修改后的代码为:

类似错误:

应该为

补充:pytorch梯度返回none的bug

tensor即使设置了requires_grad,反向传播之后, x返回没有grad梯度,为none

不知道其他版本有无此bug

如何解决pytorch损失反向传播后梯度为none的问题 如何解决pytorch损失反向传播后梯度为none的问题 如何解决pytorch损失反向传播后梯度为none的问题

补充:PyTorch中梯度反向传播的注意点

optimizer.zero_grad()语句的位置比较随意,只要放在loss.backward()前面即可,它的作用是将梯度归零,否则会在每一个迭代中进行累加,

loss.backward()的作用是反向传播,计算梯度,optimizer.step()的功能是优化器自动完成参数的更新。

本文:如何解决pytorch损失反向传播后梯度为none的问题的详细内容,希望对您有所帮助,信息来源于网络。
上一篇:postman测试接口的类型传值怎么实现下一篇:

13 人围观 / 0 条评论 ↓快速评论↓

(必须)

(必须,保密)

阿狸1 阿狸2 阿狸3 阿狸4 阿狸5 阿狸6 阿狸7 阿狸8 阿狸9 阿狸10 阿狸11 阿狸12 阿狸13 阿狸14 阿狸15 阿狸16 阿狸17 阿狸18