Elasticsearch模糊匹配新姿势:ngram分词器详解
创作时间:
作者:
@小白创作中心
Elasticsearch模糊匹配新姿势:ngram分词器详解
引用
11
来源
1.
https://www.elastic.co/guide/en/elasticsearch/reference/current/api-conventions.html
2.
https://opster.com/guides/elasticsearch/best-practices/elasticsearch-misuse-of-wildcards/
3.
https://discuss.elastic.co/t/want-to-do-partial-match-without-using-wildcards/362928
4.
https://www.cnblogs.com/MrHSR/p/18121718
5.
https://elastic.ac.cn/guide/en/elasticsearch/reference/current/query-dsl-intervals-query.html
6.
https://www.elastic.co/guide/en/elasticsearch/reference/current/_retrievers_examples.html
7.
https://www.elastic.co/guide/en/elasticsearch/reference/current/full-text-search.html
8.
https://opster.com/guides/elasticsearch/data-architecture/elasticsearch-index-pattern/
9.
https://developer.aliyun.com/article/1502311
10.
https://developer.aliyun.com/article/632232
11.
https://www.explinks.com/blog/deep-dive-into-elasticsearch-query-optimization-using-profile-tool-api-for-performance-enhancement/
在Elasticsearch中,模糊匹配是一个常见的需求,尤其是在处理用户输入的搜索查询时。传统的wildcard查询虽然灵活,但性能较差,特别是在大数据量下。而ngram分词器提供了一种更高效、更精确的模糊匹配解决方案。
ngram分词器的工作原理
ngram分词器的核心思想是将文本按照固定长度的滑动窗口进行切分,形成一系列的gram序列。每个gram都是一个连续的字符片段,通过对这些gram的出现频度进行统计,可以构建出文本的特征向量空间。
例如,对于文本"Quick Fox",使用默认配置(min_gram=1, max_gram=2)进行分词的结果为:
[Q, Qu, u, ui, i, ic, c, ck, k, "k ", " F", F, Fo, o, ox, x]
通过调整min_gram和max_gram参数,可以控制分词的粒度。通常建议从3开始作为min_gram的起点,因为更小的值可能会导致过多的无关匹配。
ngram vs wildcard:性能对比
wildcard查询在处理以*开头的模式时,需要扫描大量词条,性能随数据量增加而显著下降。而ngram分词器通过预先构建gram索引,可以快速定位匹配项,大大提高了查询效率。
实际应用场景
ngram分词器特别适合以下场景:
- 无分隔符文本的搜索:如手机号码、型号编号等
- 高亮显示需求:结合match或match_phrase查询实现关键词高亮
- 大数据量下的模糊搜索:通过空间换时间的方式提升检索效率
配置示例
下面是一个具体的配置示例,展示了如何在Elasticsearch中设置ngram分词器:
PUT my-index-000001
{
"settings": {
"analysis": {
"analyzer": {
"my_analyzer": {
"tokenizer": "my_tokenizer"
}
},
"tokenizer": {
"my_tokenizer": {
"type": "ngram",
"min_gram": 3,
"max_gram": 3,
"token_chars": [
"letter",
"digit"
]
}
}
}
}
}
使用这个配置对"2 Quick Foxes."进行分词的结果为:
[Qui, uic, ick, Fox, oxe, xes]
使用建议
- 合理设置min_gram和max_gram:较小的min_gram会增加匹配结果数量,降低相关性;较大的max_gram则会减少匹配结果,提高相关性。
- 注意存储空间:ngram分词会增加索引大小,需要在存储空间和查询性能之间做出权衡。
- 结合其他查询类型:在实际应用中,可以将ngram分词器与term查询、match查询等结合使用,以达到最佳效果。
通过以上介绍可以看出,ngram分词器是Elasticsearch中实现高效模糊匹配的重要工具。它不仅能够提供比wildcard查询更好的性能,还能在多种场景下实现更精确的匹配效果。
热门推荐
数据复盘丨115股被主力资金净卖出超亿元 龙虎榜机构抢筹3股
可视化图表:热力图一文扫盲,冷暖一目了然。
耳鸣引发的情绪风暴:如何应对由耳鸣引起的烦躁与不稳定
有乙肝可以打新冠疫苗吗?有乙肝接种新冠疫苗注意什么
从零开始C++游戏开发之第三篇:地方类游戏的界面布局设计
共赴一场浪漫花事,浙江这些绝佳“赏梅点”别错过!
孩子便秘吃什么膳食纤维比较好
人的衰老并不是匀速,科学家发现:这两个年龄段人老得最快
躁郁症是什么疾病
猛犸象牙的市场分析
肝硬化腹水的中西医结合治疗方法
情感心理咨询:恋爱时没觉得对方多好,但分手后就是忘不了他
信用卡呆账怎么办?与银行协商解决的实用指南
银行转账被骗了钱还能追回来吗
别让商业直播过度侵蚀大学校园
包装盒的样式有哪些?
诗坛双璧:杜甫与李白的比较研究
躁郁症的表现与治疗
房屋拆迁补偿:权益保护与合理安置的探索
牙线选择指南:适合自己的才是最好的
一道适合各种部位的炖牛排做法
辣椒,凭什么成为中国人的第一口味?
各行业投资回报率怎么比较?
国管公积金可以在哪些城市使用?
脉象与体质分析
民庭审判注意事项:确保公正、合法的审判过程
认缴未实缴股权转让怎么签订协议
云服务器部署,如何确定合适的硬件规格?
上海2025年高考一本线预测及2024年各大学录取分数线汇总
正月十一“行头桥”,传统习俗韵味浓!