分词

分析文本并生成 token。

请求示例

POST /api/_analyze

请求参数:

  1. {
  2. "analyzer" : "standard",
  3. "text" : "50 first dates"
  4. }

响应示例

  1. {
  2. "tokens": [
  3. {
  4. "end_offset": 2,
  5. "keyword": false,
  6. "position": 1,
  7. "start_offset": 0,
  8. "token": "50",
  9. "type": "Numeric"
  10. },
  11. {
  12. "end_offset": 8,
  13. "keyword": false,
  14. "position": 1,
  15. "start_offset": 3,
  16. "token": "first",
  17. "type": "AlphaNumeric"
  18. },
  19. {
  20. "end_offset": 14,
  21. "keyword": false,
  22. "position": 1,
  23. "start_offset": 9,
  24. "token": "dates",
  25. "type": "AlphaNumeric"
  26. }
  27. ]
  28. }

使用特定的分析器

  1. {
  2. "analyzer" : "standard",
  3. "text" : "50 first dates"
  4. }

使用特定的标记符号生成器 - tokenizer

  1. {
  2. "tokenizer" : "standard",
  3. "text" : "50 first dates"
  4. }

使用特定的标记符号生成器和 filter

  1. {
  2. "tokenizer" : "standard",
  3. "char_filter" : ["html"],
  4. "token_filter" : ["camel_case"],
  5. "text" : "50 first dates"
  6. }

示例

分词 - 文本分析 - 图1