NumPy热身

原文:https://pytorch.org/tutorials/beginner/examples_tensor/polynomial_numpy.html#sphx-glr-beginner-examples-tensor-polynomial-numpy-py

校对:DrDavidS

这里我们准备一个三阶多项式,通过最小化平方欧几里得距离来训练,并预测函数 y = sin(x)-pipi上的值。

在本实现中,我们使用 numpy 手动实现前向传播,损失(loss)和反向传播。

numpy 数组是一种通用的 n 维数组;它跟深度学习,梯度或计算图没啥关系,只是执行通用数值计算的一种方法。

  1. import numpy as np
  2. import math
  3. # Create random input and output data
  4. x = np.linspace(-math.pi, math.pi, 2000)
  5. y = np.sin(x)
  6. # Randomly initialize weights
  7. a = np.random.randn()
  8. b = np.random.randn()
  9. c = np.random.randn()
  10. d = np.random.randn()
  11. learning_rate = 1e-6
  12. for t in range(2000):
  13. # Forward pass: compute predicted y
  14. # y = a + b x + c x^2 + d x^3
  15. y_pred = a + b * x + c * x ** 2 + d * x ** 3
  16. # Compute and print loss
  17. loss = np.square(y_pred - y).sum()
  18. if t % 100 == 99:
  19. print(t, loss)
  20. # Backprop to compute gradients of a, b, c, d with respect to loss
  21. grad_y_pred = 2.0 * (y_pred - y)
  22. grad_a = grad_y_pred.sum()
  23. grad_b = (grad_y_pred * x).sum()
  24. grad_c = (grad_y_pred * x ** 2).sum()
  25. grad_d = (grad_y_pred * x ** 3).sum()
  26. # Update weights
  27. a -= learning_rate * grad_a
  28. b -= learning_rate * grad_b
  29. c -= learning_rate * grad_c
  30. d -= learning_rate * grad_d
  31. print(f'Result: y = {a} + {b} x + {c} x^2 + {d} x^3')

脚本的总运行时间:(0 分钟 0.000 秒)

下载 Python 源码:polynomial_numpy.py

下载 Jupyter 笔记本:polynomial_numpy.ipynb