目标函数(损失)

目标函数,或称损失函数,是编译一个模型必须的两个参数之一:

  1. model.compile(loss='mean_squared_error', optimizer='sgd')

可以通过传递预定义目标函数名字指定目标函数,也可以传递一个Theano/TensroFlow的符号函数作为目标函数,该函数对每个数据点应该只返回一个标量值,并以下列两个参数为参数:

  • y_true:真实的数据标签,Theano/TensorFlow张量
  • y_pred:预测值,与y_true相同shape的Theano/TensorFlow张量

真实的优化目标函数是在各个数据点得到的损失函数值之和的均值

可用的目标函数

详见:https://keras-cn.readthedocs.io/en/latest/other/objectives/
常用的几个:

  • mean_squared_error或mse
  • mean_absolute_error或mae
  • binary_crossentropy(亦称作对数损失,logloss)
  • categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

注意: 当使用”categorical_crossentropy”作为目标函数时,标签应该为多类模式,即one-hot编码的向量,而不是单个数值. 可以使用工具中的to_categorical函数完成该转换.示例如下:

  1. from keras.utils.np_utils import to_categorical
  2. categorical_labels = to_categorical(int_labels, num_classes=None)

性能评估metrics

使用方法

性能评估模块提供了一系列用于模型性能评估的函数,这些函数在模型编译时由metrics关键字设置
性能评估函数类似与目标函数, 只不过该性能的评估结果讲不会用于训练.

  • 可以通过字符串来使用域定义的性能评估函数

    1. model.compile(loss='mean_squared_error',
    2. optimizer='sgd',
    3. metrics=['mae', 'acc'])
  • 也可以自定义一个Theano/TensorFlow函数并使用之 ```python from keras import metrics

model.compile(loss=’mean_squared_error’, optimizer=’sgd’, metrics=[metrics.mae, metrics.categorical_accuracy])

  1. <a name="EcdH5"></a>
  2. #### 可用预定义张量:
  3. 除fbeta_score额外拥有默认参数beta=1外,其他各个性能指标的参数均为y_true和y_pred
  4. - binary_accuracy: 对二分类问题,计算在所有预测值上的平均正确率
  5. - categorical_accuracy:对多分类问题,计算再所有预测值上的平均正确率
  6. - sparse_categorical_accuracy:与`categorical_accuracy`相同,在对稀疏的目标值预测时有用
  7. - top_k_categorical_accracy: 计算top-k正确率,当预测值的前k个值中存在目标类别即认为预测正确
  8. - sparse_top_k_categorical_accuracy:与top_k_categorical_accracy作用相同,但适用于稀疏情况
  9. <a name="tAjKP"></a>
  10. #### 定制评估函数
  11. 定制的评估函数可以在模型编译时传入,该函数应该以`(y_true, y_pred)`为参数,并返回单个张量,或从`metric_name`映射到`metric_value`的字典,下面是一个示例:
  12. ```python
  13. # (y_true, y_pred) as arguments and return a single tensor value.
  14. import keras.backend as K
  15. def mean_pred(y_true, y_pred):
  16. return K.mean(y_pred)
  17. model.compile(optimizer='rmsprop',
  18. loss='binary_crossentropy',
  19. metrics=['accuracy', mean_pred])

序列模型

  • model.add(layer)

向模型中添加一个层

  • model.pop()

弹出模型最后的一层,无返回值

model.compile()

  1. compile(self, optimizer, loss, metrics=None, sample_weight_mode=None)
  2. # example
  3. model = Sequential()
  4. model.add(Dense(32, input_shape=(500,)))
  5. model.add(Dense(10, activation='softmax'))
  6. model.compile(optimizer='rmsprop',
  7. loss='categorical_crossentropy',
  8. metrics=['accuracy'])

编译用来配置模型的学习过程,其参数有:

  • optimizer:字符串(预定义优化器名)或优化器对象,参考优化器
  • loss:字符串(预定义损失函数名)或目标函数,参考损失函数
  • metrics:列表,包含评估模型在训练和测试时的网络性能的指标,典型用法是metrics=['accuracy']
  • sample_weight_mode:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。在下面fit函数的解释中有相关的参考内容。
  • weighted_metrics: metrics列表,在训练和测试过程中,这些metrics将由sample_weightclss_weight计算并赋权
  • target_tensors: 默认情况下,Keras将为模型的目标创建一个占位符,该占位符在训练过程中将被目标数据代替。如果你想使用自己的目标张量(相应的,Keras将不会在训练时期望为这些目标张量载入外部的numpy数据),你可以通过该参数手动指定。目标张量可以是一个单独的张量(对应于单输出模型),也可以是一个张量列表,或者一个name->tensor的张量字典。
  • kwargs:使用TensorFlow作为后端请忽略该参数,若使用Theano/CNTK作为后端,kwargs的值将会传递给 K.function。如果使用TensorFlow为后端,这里的值会被传给tf.Session.run

    model.fit()

    本函数将模型训练nb_epoch轮,其参数有:

  • x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array

  • y:标签,numpy array
  • batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。
  • epochs:整数,训练终止时的epoch值,训练将在达到该epoch值时停止,当没有设置initial_epoch时,它就是训练的总轮数,否则训练的总轮数为epochs - inital_epoch
  • verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
  • callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数
  • validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。注意,validation_split的划分在shuffle之前,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。
  • validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖validation_spilt。
  • shuffle:布尔值或字符串,一般为布尔值,表示是否在训练过程中随机打乱输入样本的顺序。若为字符串“batch”,则是用来处理HDF5数据的特殊情况,它将在batch内部将数据打乱。
  • class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)
  • sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode='temporal'
  • initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。

fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况

evaluate

  1. evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

本函数按batch计算在某些输入数据上模型的误差,其参数有:

  • x:输入数据,与fit一样,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只能取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数返回一个测试误差的标量值(如果模型没有其他评价指标),或一个标量的list(如果模型还有其他的评价指标)。model.metrics_names将给出list中各个值的含义。

predict

  1. predict(self, x, batch_size=32, verbose=0)

本函数按batch获得输入数据对应的输出,其参数有:
函数的返回值是预测值的numpy array

fit_generator

  1. fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

利用Python的生成器,逐个生成数据的batch并进行训练。生成器与模型将并行执行以提高效率。例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练。
常用的参数为:

  • generator:生成器函数,生成器的输出应该为:
    • 一个形如(inputs,targets)的tuple
    • 一个形如(inputs, targets,sample_weight)的tuple。所有的返回值都应该包含相同数目的样本。生成器将无限在数据集上循环。每个epoch以经过模型的样本数达到samples_per_epoch时,记一个epoch结束
  • steps_per_epoch:整数,当生成器返回steps_per_epoch次数据时计一个epoch结束,执行下一个epoch
  • epochs:整数,数据迭代的轮数

例如:

  1. def generate_arrays_from_file(path):
  2. while 1:
  3. f = open(path)
  4. for line in f:
  5. # create Numpy arrays of input data
  6. # and labels, from each line in the file
  7. x, y = process_line(line)
  8. yield (x, y)
  9. f.close()
  10. model.fit_generator(generate_arrays_from_file('/my_file.txt'),
  11. samples_per_epoch=10000, epochs=10)

:::info 上述getnerate_arrays_from_file即为一个生成器。另外,图片预处理中的ImageGenerator.flow()也定义了一个生成器。 :::

为何常见的传入参数是 samples_per_epoch 呢?

  • evaluate_generator:

    1. evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)
    • 本函数使用一个生成器作为数据源评估模型,生成器应返回与test_on_batch的输入数据相同类型的数据。该函数的参数与fit_generator同名参数含义相同,steps是生成器要返回数据的轮数。
  • predict_generator:

    1. predict_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False, verbose=0)
    • 本函数使用一个生成器作为数据源预测模型,生成器应返回与test_on_batch的输入数据相同类型的数据。该函数的参数与fit_generator同名参数含义相同,steps是生成器要返回数据的轮数。

      train_on_batch

      1. train_on_batch(self, x, y, class_weight=None, sample_weight=None)
      本函数在一个batch的数据上进行一次参数更新
      函数返回训练误差的标量值或标量值的list,与evaluate的情形相同。

      test_on_batch

      1. test_on_batch(self, x, y, sample_weight=None)

本函数在一个batch的样本上对模型进行评估
函数的返回与evaluate的情形相同

predict_on_batch

  1. predict_on_batch(self, x)

本函数在一个batch的样本上对模型进行测试
函数返回模型在一个batch上的预测结果