算法简介
BERT 文本分类是通用的基于BERT的分类模型,输出文本数据,输出分类标签,适用于文本打标和文本情感分析等任务。模型结构如下所示:

尽管该组件名字称为 BERT,但事实上支持ALBERT,RoBerta 等ModelZoo里的模型。
可视化配置参数
【输入桩配置】
| 输入桩(从左到右) | 限制数据类型 | 建议上游组件 | 是否必选 |
|---|---|---|---|
| 训练数据 | odps | 读数据表odps | 是 |
| 测试数据 | odps | 读数据表odps | 是 |
【右侧参数表单】

字段设置:
| 参数名称 | 参数描述 | 取值类型 | 必选,默认值 |
|---|---|---|---|
| 文本列选择 | 文本序列在输入表中对应的列名 | string类型 | 必选,无 |
| 标签列选择 | 分类标签对应的列名 | string类型 | 必选,无 |
| 标签枚举值 | 需要枚举出所有标签,如果标签太多,可以输入文件 | string类型 | 必选,无 |
| 样本权重列 | 样本加权列,每个样本的loss计算的时候可以加个权重 | double类型 | 可选 |
| 模型存储路径 | 模型checkpoint的存储路径,比方说: oss://easynlp-sh.oss-cn-shanghai-internal.aliyuncs.com/text_match/ |
string类型 | 必选,无 |


参数设置:
| 参数名称 | 参数描述 | 取值类型 | 必选,默认值 |
|---|---|---|---|
| 模型选择 | 文本分类模型名 | string | 可选,默认为’text_classify_bert’,此外还支持非bert模型: text_classify_cnn, text_classify_dgcnn |
| 优化器类型 | 优化器选择 | string | 可选,默认为’adam’ |
| batchSize | 批大小 | int | 可选,默认为256 |
| sequenceLength | 序列整体最大长度 | int | 可选,默认为128,范围为1~512 |
| numEpochs | 训练的轮次 | int | 可选,默认为2 |
| 学习率 | 优化器的学习率 | double | 可选,默认为1e-5 |
| 模型额外参数 | 额外的参数,比方说修改预训练模型等 | string | 可选,可以修改预训练模型,比方说:pretrain_model_name_or_path=pai-bert-base-zh, 其他模型详见:https://yuque.antfin-inc.com/docs/share/5996203d-4db7-4ad0-9d83-a640bf4f292e |
执行调优:
| 参数名称 | 参数描述 | 取值类型 | 必选,默认值 |
|---|---|---|---|
| 指定Worker数 | worker的数量 | int | 可选,默认为3个Worker |
| 指定Worker的GPU卡数 | 每个worker的GPU卡数 | int | 可选,标识是否使用GPU。默认是2张卡 |
| 指定Worker的CPU卡数 | 每个worker的CPU核数 | int | 可选,标识是否使用GPU。默认是4张卡。 |
| 分布式策略 | 定义分布式策略 | MirroredStrategy 或者: ExascaleStrategy |
必须,单机单卡或者单机多卡选 MirroredStrategy 多机多卡选 ExascaleStrategy |
【输出桩配置】
| 输出桩 | 限制数据类型 | 建议下游组件 | 是否必选 |
|---|---|---|---|
| 结果数据 | oss | 通用NLP预测 | 否 |
PAI命令及说明
1. PAI命令
PAI -name easy_transfer_app_ext-Dmode=train-DmodelName=text_classify_bert-DinputTable=odps://${your_project}/tables/${train},odps://${your_project}/tables/${dev}-DfirstSequence=sentence-DlabelName=label-DlabelEnumerateValues=0,1-DsequenceLength=15-DcheckpointDir=oss://${your_bucket}/${your_path}-DbatchSize=32-DnumEpochs=1-DoptimizerType=adam-DlearningRate=5e-5-DuserDefinedParameters='pretrain_model_name_or_path=pai-bert-base-zh'-Dbuckets=oss://${your_bucket}/-Darn=${your_role_arn}-DossHost=${your_host}
2. 参数说明
| 参数名称 | 是否必选 | 参数描述 | 类型 | 默认值 |
|---|---|---|---|---|
| mode | 必选 | 模式,包括三种: - train(训练) - evaluate(评测) - predict(预测) |
STRING | 无 |
| modelName | 必选 | 模型名字,和应用一一对应,包括: - text_classify_bert(文本分类) - text_match_bert(文本匹配) - sequence_labeling_bert(序列标注) |
STRING | 无 |
| inputTable | 必选 | 输入odps表名 | STRING | 无 |
| firstSequence | 必选 | 文本序列在输入表中对应的列名 | STRING | 无 |
| labelName | 必选 | 分类标签对应的列名 | STRING | 无 |
| labelEnumerateValues | 必选 | 需要枚举出所有标签值 | STRING | 无 |
| sequenceLength | 必选 | 序列整体最大长度 | BIGINT | 无 |
| checkpointDir | 必选 | 模型checkpoint的存储路径,比方说: oss://easynlp-sh/text_match/ |
STRING | 无 |
| batchSize | 必选 | 批大小 | BIGINT | 无 |
| numEpochs | 必选 | 训练的轮次 | BIGINT | 无 |
| optimizerType | 必选 | 优化器,例如adam | STRING | 无 |
| learningRate | 必选 | 优化器的学习率,例如3e-5 | 无 | |
| userDefinedParameters | 必选 | 额外的参数,比方说修改预训练模型: “ pretrain_model_name_or_path=pai-bert-base-zh” |
STRING | 无 |
| buckets | 必选 | 需要鉴权的oss bucket,和 checkpointDir对应,比方说oss://easynlp-sh/ |
STRING | 无 |
| arn | 必选 | 用户的arn配置 | STRING | 无 |
| ossHost | 必选 | 用户的bucket对应的oss host | STRING | 无 |
3、输出结果
运行的开始之后就可以打开logview看运行的进度,从stderr可以看到运行的状态:
这里的PAI命令里有个-DcheckpointDir参数,填写的就是输出模型的checkpointDir。运行完之后可以通过oss console来看到checkpointDir里存储的信息,示例输出结果如下:
包括如下内容:
- 模型中间结果:avg_loss是训练的loss,eval是评测的结果,variables是模型参数,其他的为模型的checkpoint和meta信息
- 部署的模型:deployment放的是可以部署的模型,可以直接对接PAI EAS的服务。详见:https://help.aliyun.com/document_detail/113696.html
支持计算资源
【MaxCompute】
具体示例
首先可以下载 训练集 和 评估集,其中 train.csv , dev.csv 是用\t 分隔的 .csv 文件:
1 22829 兴诚13773665959吴强1 22830 逃课的人6661 22831 谈个有膜的
我们定义这五个字段为 label,example_id, sentence。注意,这里的label=0是正常样本,label=1是黑样本。
我们对各数据创建表,并将相应的数据上传到 ODPS 上:
CREATE TABLE ez_text_classify_train(label STRING, example_id INT, sentence STRING);CREATE TABLE ez_text_classify_dev(label STRING, example_id INT, sentence STRING);
odpscmd -e --config=${odps_config} "tunnel upload train.csv ez_text_classify_test_train -fd \t;"
odpscmd -e --config=${odps_config} "tunnel upload dev.csv ez_text_classify_test_dev -fd \t;"
参考以上可视化配置参数。创建工作流,新建两个输入组件(读数据表组件),对应训练数据和测试数据。将两个输入组件和模型组件连接,运行即可获得结果。工作流示例如下:

