1、生成数据集
本例子是人工生成的数据集,里面有数据x_data。
import tensorflow as tf
import matplotlib.pyplot as plt
# 定义正确的权重和偏置
TRUE_W = 3.0 #这权值里我们是要通过模型预测出权重
TRUE_b = 2.0 #这权值里我们是要通过模型预测出偏置
# 制作训练数据,添加一些噪声进去
NUM_EXAMPLES = 100
inputs = tf.random.normal(shape=[NUM_EXAMPLES]) #制作的数据集
noise = tf.random.normal(shape = [NUM_EXAMPLES])
outputs = inputs * TRUE_W + TRUE_b + noise #这是我的标签
plt.scatter(inputs, outputs, label='Original data')
plt.show()
可以看到上图,数据集有inputs,outputs。现在我们要找到一种模型,这种模型可以总结出数据集的特点。
2、构建模型
下面就是定义的一个简单的模型,线性模型 self.W * inputs + self.b。
#定义模型和损失函数
class Model(object):
def __init__(self): #初始化参数
self.W = tf.Variable(10.0)
self.b = tf.Variable(-5.0)
#基于函数定义的模型
def __call__(self, inputs):
return self.W * inputs + self.b
#设计它的损失函数
def compute_loss(y_true, y_pred):
return tf.reduce_mean(tf.square(y_true-y_pred))
model = Model()
def plot(epoch): #传入epoch参数,
plt.scatter(inputs, outputs, c='b') # 画散点图,传入inputs,outputs数据集,c是颜色为blue
plt.scatter(inputs, model(inputs), c='r') #传入inputs, 预测的model(inputs),c是红色
plt.title("epoch %2d, loss = %s" %(epoch, str(compute_loss(outputs, model(inputs)).numpy())))
plt.legend() #plt.legend()函数主要的作用就是给图加上图例,
plt.draw() #将重新绘制该数字.这允许您以交互模式工作,如果您更改了数据或格式,则允许图表本身更改.
plt.ion() # # 打开交互模式
plt.pause(1)#plt.pause()会把它之前的所有绘图都绘制在对应坐标系中,而不仅仅是在当前坐标系中绘图;
#plt.pause(time)函数也能实现窗口绘图(不需要plt.show),但窗口只停留time时间便会自动关闭,然后再继续执行后面代码;
plt.close()
3、训练模型
最主要的是训练模型,训练的主要内容是:先前向传播,计算损失,在反向传播,更新参数。
learning_rate=0.2 #设置损失函数的学习率
epoch=30 #设置epoch的数量 ,1个epoch是一整个数据集,bachsize是一次性送入网络中的样本数量,用总的数据集/bachsize=迭代数
for i in range(epoch): #进行for循环
with tf.GradientTape() as tape:
loss = compute_loss(outputs, model(inputs)) # 计算损失
dW, db = tape.gradient(loss, [model.W, model.b]) # 计算梯度
model.W.assign_sub(learning_rate * dW) # 更新权重
model.b.assign_sub(learning_rate * db) # 更新权重
print("=> epoch %2d: w_true= %.2f, w_pred= %.2f; b_true= %.2f, b_pred= %.2f, loss= %.2f" %(
i+1, TRUE_W, model.W.numpy(), TRUE_b, model.b.numpy(), loss.numpy()))
plot(i+1)
i += 1
4、测试数据
模型里面的参数已经训练好了,可以拿着参数,验证一下测试集是否准确。
5、评估模型
拿着测试出来的数据,选择好评估函数看正确率怎么样。