最基础的神经网络
    代码已经放到了pycharm里
    1,生成数据集
    2,读取数据集,这一部分是以batchsize大小读取,可以用load_array
    3,定义模型
    4,初始化模型参数
    5,定义损失函数
    6,定义优化算法
    训练:一般都是
    for epoch in range(num_epochs):#1,确定循环步数
    for X,y in data_iter:#这一步是为了得到合适的权重系数w,b
    l=loss(net(X),y)#计算初始w,b下的loss
    trainer.zero_grad()#要有清零,SGD里可能并没有自带
    l.backward()#反向传播
    trainer.step()#梯度更新
    l=loss(net(features),labels)#用得到的w,b分析loss
    print(f’epoch{epoch+1},loss{l:f}’)