分析文本获取对应的 token

请求

POST /es/_analyze

  1. {
  2. "analyzer" : "standard",
  3. "text" : "50 first dates"
  4. }

响应

  1. {
  2. "tokens": [
  3. {
  4. "end_offset": 2,
  5. "keyword": false,
  6. "position": 1,
  7. "start_offset": 0,
  8. "token": "50",
  9. "type": "Numeric"
  10. },
  11. {
  12. "end_offset": 8,
  13. "keyword": false,
  14. "position": 1,
  15. "start_offset": 3,
  16. "token": "first",
  17. "type": "AlphaNumeric"
  18. },
  19. {
  20. "end_offset": 14,
  21. "keyword": false,
  22. "position": 1,
  23. "start_offset": 9,
  24. "token": "dates",
  25. "type": "AlphaNumeric"
  26. }
  27. ]
  28. }

使用指定的分析器

  1. {
  2. "analyzer" : "standard",
  3. "text" : "50 first dates"
  4. }

使用指定的 tokenizer

  1. {
  2. "tokenizer" : "standard",
  3. "text" : "50 first dates"
  4. }

使用指定的 tokenizer 和 filter

  1. {
  2. "tokenizer" : "standard",
  3. "char_filter" : ["html"],
  4. "token_filter" : ["camel_case"],
  5. "text" : "50 first dates"
  6. }

支持的分析器

  • standard
  • simple
  • keyword
  • web
  • regexp
  • stop
  • whitespace