worker() 用于新建分词引擎,可以同时新建多个分词引擎。引擎的类型有: mix(混合模型), mp(最大概率模型), hmm(HMM模型), query(索引模型), tag(标记模型), simhash(Simhash 模型)和 keywords(关键词模型),共7种。 默认参数
worker(
type = "mix",
dict = DICTPATH,
hmm = HMMPATH,
user = USERPATH,
idf = IDFPATH,
stop_word =
STOPPATH,
write = T,
qmax = 20,
topn = 5,
encoding = "UTF-8",
detect = T,
symbol = F,
lines = 1e+05,
output = NULL,
bylines = F)
4.0.1 type
mp(最大概率模型)- 基于词典和词频
hmm(HMM模型)- 基于 HMM 模型,可以发现词典中没有的词
mix(混合模型)- 先用 mp 分,mp 分完调用 hmm 再来把剩余的可能成词的单字分出来。
query(索引模型)- mix 基础上,对大于一定长度的词再进行一次切分。
tag(标记模型)- 词性标记,基于词典的
keywords(关键词模型)- tf-idf 抽 关键词
simhash(Simhash 模型) - 在关键词的基础上计算 simhash
4.0.2 dict 系统词典
优先载入的词典,纯文本文件,默认路径为 jiebaR::DICTPATH 包括词、词频、词性标记三列,用空格分开三列。可以输入自定义路径。
readLines(jiebaR::DICTPATH, 5)
#> [1] "1号店 3 n" "1號店 3 n" "4S店 3 n" "4s店 3 n" "AA制 3 n"
4.0.3 user 用户词典
用户词典,包括词、词性标记两列。用户词典中的所有词的词频均为系统词典中的最大词频 (默认,可以通过 user_weight 参数修改)。
4.0.4 user_weight
用户词典中的词的词频,默认为 “max”,系统词典中的最大值。
还可以选 “min” 最小值或者 “median” 中位数。
4.0.5 idf IDF词典
IDF 词典,关键词提取使用。
4.0.6 stop_word 关键词用停止词库
关键词提取使用的停止词库。分词时也可以使用,但是分词时使用的对应路径不能为默认的 jiebaR::STOPPATH。
4.0.7 write 写入文件
是否将文件分词结果写入文件,默认为否。只在输入内容为文件路径时,本参数才会被使用。本参数只对分词和词性标注有效。
4.0.8 qmax 最大索引长度
索引模型中,最大可能成词的字符数。
4.0.9 topn 关键词数
提取的关键词数。
4.0.10 encoding 输入文件编码
输入文件的编码,默认为UTF-8。
4.0.11 detect 检测编码
是否检查输入文件的编码,默认检查。
4.0.12 symbol 保留符号
是否保留符号,默认不保留符号。
4.0.13 lines 读取行数
每次读取文件的最大行数,用于控制读取文件的长度。对于大文件,实现分次读取。
4.0.14 output 输出路径
指定输出路径,一个字符串路径。只在输入内容为文件路径时,本参数才会被使用。
4.0.15 bylines 按行输出
文件结果是否按行输出,如果是,则将读入的文件或字符串向量按行逐个进行分词操作。