【深度学习】 《PyTorch ——杂记》
作者:
FanXY
,
2022-09-30 20:40:16
,
所有人可见
,
阅读 237
1. 疑难小问题解决方案记录
问题 |
链接或经验 |
1. 如何把虚拟环境的Pytorch运行在jupyter中 |
传送门 |
2. pytorch便捷安装在anaconda |
传送门 |
3. 激活函数在神经网络如何作用? |
激活函数的选择与作用 |
4. Tensor和tensor的区别 |
区别 |
5. PyTorch线性回归所前置的类与函数等前置知识 |
例如__call__以及前馈及反向传播 |
6. |
|
7. |
|
8. |
|
9. |
|
10. |
|
2. 代码或内容总结
-
l.backward()
会把计算图中所有需要梯度(grad
)的地方都会求出来,然后把梯度都存在对应的待求的参数中,最终计算图被释放。取tensor
中的data
是不会构建计算图的,因此在反向传播过程中,梯度的更新为w.data = w.data - 0.1 * w.grad.data
。同理,前馈和损失函数的结果也是一个tensor
当需要计算或者输出值时,为了避免生成计算图,可以使用l.item()
-
Pytorch autograd,backward详解