Как искать часть слова с помощью ElasticSearch


128

Я недавно начал использовать ElasticSearch, и мне кажется, что я не могу заставить его искать часть слова.

Пример: у меня есть три документа из моей couchdb, проиндексированных в ElasticSearch:

{
  "_id" : "1",
  "name" : "John Doeman",
  "function" : "Janitor"
}
{
  "_id" : "2",
  "name" : "Jane Doewoman",
  "function" : "Teacher"
}
{
  "_id" : "3",
  "name" : "Jimmy Jackal",
  "function" : "Student"
} 

Итак, теперь я хочу найти все документы, содержащие "Doe"

curl http://localhost:9200/my_idx/my_type/_search?q=Doe

Это не возвращает ни одного попадания. Но если я буду искать

curl http://localhost:9200/my_idx/my_type/_search?q=Doeman

Он действительно возвращает один документ (Джон Доеман).

Я пробовал устанавливать разные анализаторы и разные фильтры в качестве свойств моего индекса. Я также пробовал использовать полноценный запрос (например:

{
  "query": {
    "term": {
      "name": "Doe"
    }
  }
}

) Но вроде ничего не работает.

Как сделать так, чтобы ElasticSearch находил и Джона Доемана, и Джейн Доу-женщина, когда я ищу "Доу"?

ОБНОВИТЬ

Я попытался использовать токенизатор и фильтр nGram, как предложил Игорь, вот так:

{
  "index": {
    "index": "my_idx",
    "type": "my_type",
    "bulk_size": "100",
    "bulk_timeout": "10ms",
    "analysis": {
      "analyzer": {
        "my_analyzer": {
          "type": "custom",
          "tokenizer": "my_ngram_tokenizer",
          "filter": [
            "my_ngram_filter"
          ]
        }
      },
      "filter": {
        "my_ngram_filter": {
          "type": "nGram",
          "min_gram": 1,
          "max_gram": 1
        }
      },
      "tokenizer": {
        "my_ngram_tokenizer": {
          "type": "nGram",
          "min_gram": 1,
          "max_gram": 1
        }
      }
    }
  }
}

Проблема, с которой я столкнулся сейчас, заключается в том, что каждый запрос возвращает ВСЕ документы. Есть указатели? Документация ElasticSearch по использованию nGram невелика ...


9
Неудивительно, что у вас min / max ngram установлен на 1, поэтому 1 буква :)
Мартин Б.

Ответы:


85

Я тоже использую nGram. Я использую стандартный токенизатор и nGram просто как фильтр. Вот моя установка:

{
  "index": {
    "index": "my_idx",
    "type": "my_type",
    "analysis": {
      "index_analyzer": {
        "my_index_analyzer": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "lowercase",
            "mynGram"
          ]
        }
      },
      "search_analyzer": {
        "my_search_analyzer": {
          "type": "custom",
          "tokenizer": "standard",
          "filter": [
            "standard",
            "lowercase",
            "mynGram"
          ]
        }
      },
      "filter": {
        "mynGram": {
          "type": "nGram",
          "min_gram": 2,
          "max_gram": 50
        }
      }
    }
  }
}

Вы можете найти части слова до 50 букв. Настройте max_gram, как вам нужно. В немецком языке слова могут быть очень большими, поэтому я установил высокое значение.



Это то, что вы получаете из настроек индекса, или это то, что вы публикуете в elasticsearch для его настройки?
Томас Янссон

Это POST для настройки Elasticsearch.
roka


1
@JimC Я не использовал ElasticSearch как минимум 7 лет, поэтому я не знаю текущих изменений проекта.
Рока

63

Поиск с использованием подстановочных знаков в начале и в конце будет очень медленным для большого индекса. Если вы хотите иметь возможность поиска по префиксу слова, удалите ведущий подстановочный знак. Если вам действительно нужно найти подстроку в середине слова, вам лучше использовать токенизатор ngram.


14
Игорь прав. По крайней мере, удалите ведущий *. Например Ngram ElasticSearch см это суть: gist.github.com/988923
Карми

3
@karmi: Спасибо за полный пример! Возможно, вы хотите добавить свой комментарий в качестве фактического ответа, это то, что заставило меня работать и что я хотел бы проголосовать.
Fabian Steeg

54

Я думаю, что никаких карт менять не нужно. Попробуйте использовать query_string , это прекрасно. Все сценарии будут работать со стандартным анализатором по умолчанию:

У нас есть данные:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

Сценарий 1:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*Doe*"}
} }

Отклик:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

Сценарий 2:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*Jan*"}
} }

Отклик:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

Сценарий 3:

{"query": {
    "query_string" : {"default_field" : "name", "query" : "*oh* *oe*"}
} }

Отклик:

{"_id" : "1","name" : "John Doeman","function" : "Janitor"}
{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

РЕДАКТИРОВАТЬ - та же реализация с эластичным поиском данных Spring https://stackoverflow.com/a/43579948/2357869

Еще одно объяснение, почему query_string лучше других https://stackoverflow.com/a/43321606/2357869


3
Думаю, это самый простой
Эсги Дендьянри

Да . Я реализовал в своем проекте.
Opster Elasticsearch Pro-Vijay

Как включить несколько полей для поиска?
Шубхам А.

попробуйте следующее: - {"query": {"query_string": {"fields": ["content", "name"], "query": "это И то"}}}
Opster Elasticsearch Pro-Vijay


14

без изменения сопоставлений индексов вы можете выполнить простой префиксный запрос, который будет выполнять частичный поиск, как вы надеетесь

то есть.

{
  "query": { 
    "prefix" : { "name" : "Doe" }
  }
}

https://www.elastic.co/guide/en/elasticsearch/reference/current/query-dsl-prefix-query.html


можно ли выполнять поиск по нескольким полям, используя префиксный запрос?
Batmaci

Спасибо, именно то, что я искал! Есть мысли о влиянии на производительность?
Vingtoft

6

Попробуйте решение, описанное здесь: Точный поиск подстроки в ElasticSearch

{
    "mappings": {
        "my_type": {
            "index_analyzer":"index_ngram",
            "search_analyzer":"search_ngram"
        }
    },
    "settings": {
        "analysis": {
            "filter": {
                "ngram_filter": {
                    "type": "ngram",
                    "min_gram": 3,
                    "max_gram": 8
                }
            },
            "analyzer": {
                "index_ngram": {
                    "type": "custom",
                    "tokenizer": "keyword",
                    "filter": [ "ngram_filter", "lowercase" ]
                },
                "search_ngram": {
                    "type": "custom",
                    "tokenizer": "keyword",
                    "filter": "lowercase"
                }
            }
        }
    }
}

Чтобы решить проблему использования диска и проблему слишком длинного поискового запроса , используются короткие 8- значные нграммы (сконфигурированные с: "max_gram": 8 ). Для поиска терминов, содержащих более 8 символов, превратите поиск в логический запрос AND, ищущий каждую отдельную 8-символьную подстроку в этой строке. Например, если пользователь искал большой двор (строка из 10 символов), поиск был бы таким:

"АРГЭ Я И АРГЕ ЯР И ГОРОД .


2
мертвая ссылка,
пожалуйста

Я давно искал что-то подобное. Спасибо! Знаете ли вы, как память масштабируется с помощью, min_gramи max_gramкажется, что это будет линейно зависеть от размера значений поля и диапазона minи max. Насколько недовольны использованием чего-то подобного?
Глен Томпсон

Также есть ли причина, по ngramкоторой это фильтр над токенизатором? не могли бы вы просто использовать его как токенизатор, а затем применить фильтр нижнего регистра ... index_ngram: { type: "custom", tokenizer: "ngram_tokenizer", filter: [ "lowercase" ] }Я попробовал, и, похоже, он дает те же результаты, используя тестовый api анализатора
Глен Томпсон

2

Если вы хотите реализовать функцию автозаполнения, советник завершения - самое удобное решение. Следующая запись в блоге содержит очень четкое описание того, как это работает.

В двух словах, это структура данных в памяти, называемая FST, которая содержит действительные предложения и оптимизирована для быстрого поиска и использования памяти. По сути, это просто график. Например, и FST , содержащее слово hotel, marriot, mercure, munchenи munichбудет выглядеть следующим образом :

введите описание изображения здесь


2

вы можете использовать regexp.

{ "_id" : "1", "name" : "John Doeman" , "function" : "Janitor"}
{ "_id" : "2", "name" : "Jane Doewoman","function" : "Teacher"  }
{ "_id" : "3", "name" : "Jimmy Jackal" ,"function" : "Student"  } 

если вы используете этот запрос:

{
  "query": {
    "regexp": {
      "name": "J.*"
    }
  }
}

вам будут предоставлены все данные, имена которых начинаются с "J". Предположим, вы хотите получить только первые две записи, имена которых заканчиваются на "man", чтобы вы могли использовать этот запрос:

{
  "query": { 
    "regexp": {
      "name": ".*man"
    }
  }
}

и если вы хотите получить все записи, которые в их имени существуют "m", вы можете использовать этот запрос:

{
  "query": { 
    "regexp": {
      "name": ".*m.*"
    }
  }
}

Это работает для меня. И я надеюсь, что мой ответ подойдет для решения вашей проблемы.


1

Использование wildcards (*) предотвращает подсчет очков


1
Не могли бы вы добавить больше деталей к своему ответу? Предоставьте образец кода или ссылку на документацию о том, что это делает.
Cray

0

Я использую это, и я работал

"query": {
        "query_string" : {
            "query" : "*test*",
            "fields" : ["field1","field2"],
            "analyze_wildcard" : true,
            "allow_leading_wildcard": true
        }
    }

-6

Неважно.

Мне пришлось посмотреть документацию Lucene. Кажется, я могу использовать подстановочные знаки! :-)

curl http://localhost:9200/my_idx/my_type/_search?q=*Doe*

делает свое дело!


11
См. Ответ @imotov. Использование подстановочных знаков вообще не будет хорошо масштабироваться.
Майк Манро

5
@Idx - Посмотрите, как проголосовали против вашего собственного ответа. Downvotes показывает, насколько качественен и актуален ответ. Не могли бы вы уделить минуту, чтобы принять правильный ответ? По крайней мере, новые пользователи были бы вам благодарны.
asyncwait

3
Достаточно голосов против. OP ясно дал понять, какой сейчас лучший ответ. +1 за то, что поделился тем, что казалось лучшим ответом до того, как кто-то опубликовал лучший.
s.Daniel
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.