最基础的神经网络
代码已经放到了pycharm里
1,生成数据集
2,读取数据集,这一部分是以batchsize大小读取,可以用load_array
3,定义模型
4,初始化模型参数
5,定义损失函数
6,定义优化算法
训练:一般都是
for epoch in range(num_epochs):#1,确定循环步数
for X,y in data_iter:#这一步是为了得到合适的权重系数w,b
l=loss(net(X),y)#计算初始w,b下的loss
trainer.zero_grad()#要有清零,SGD里可能并没有自带
l.backward()#反向传播
trainer.step()#梯度更新
l=loss(net(features),labels)#用得到的w,b分析loss
print(f’epoch{epoch+1},loss{l:f}’)