как перенести данные elasticsearch с одного сервера на другой


98

Как перенести данные Elasticsearch с одного сервера на другой?

У меня есть сервер A, на котором выполняется Elasticsearch 1.1.1 на одном локальном узле с несколькими индексами. Я хотел бы скопировать эти данные на сервер B, на котором запущен Elasticsearch 1.3.4.

Процедура на данный момент

  1. Выключите ES на обоих серверах и
  2. scp все данные в правильный каталог данных на новом сервере. (данные, похоже, находятся в / var / lib / elasticsearch / в моих ящиках debian)
  3. изменить разрешения и владение на elasticsearch: elasticsearch
  4. запустить новый сервер ES

Когда я смотрю на кластер с плагином ES head, индексы не появляются.

Вроде не загружаются данные. Я что-то упускаю?


2
Под данными, если вы имеете в виду индексы, вы можете просто переместить папку индексов внутри папки elasticsearch / data / <clustername> / nodes / <node id> в новое соответствующее место. Это структура каталогов elasticsearch в Windows. Не уверен, что в Debian то же самое. Но идея заключается в том, что вы можете напрямую перемещать каталоги индексов из одного кластера в другой, если совместимость не нарушена.
bittusarkar

1
Вы уверены, что ES 1.1.1 и ES 1.3.4 используют одну и ту же версию lucene? Это может вызвать проблемы с совместимостью. Также нет гарантии, что метаданные ES будут такими же. Я бы предложил сделать копию программно. Сначала скопируйте схемы индекса, а затем импортируйте данные.
Zouzias

Ответы:


129

Выбранный ответ делает его немного более сложным, чем есть на самом деле, вам нужно следующее (сначала установите npm в вашей системе).

npm install -g elasticdump
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=mapping
elasticdump --input=http://mysrc.com:9200/my_index --output=http://mydest.com:9200/my_index --type=data

Вы можете пропустить первую команду elasticdump для последующих копий, если сопоставления останутся постоянными.

Я только что без проблем перешел с AWS на Qbox.io с указанным выше.

Более подробная информация по адресу:

https://www.npmjs.com/package/elasticdump

Страница справки (по состоянию на февраль 2016 г.) включена для полноты:

elasticdump: Import and export tools for elasticsearch

Usage: elasticdump --input SOURCE --output DESTINATION [OPTIONS]

--input
                    Source location (required)
--input-index
                    Source index and type
                    (default: all, example: index/type)
--output
                    Destination location (required)
--output-index
                    Destination index and type
                    (default: all, example: index/type)
--limit
                    How many objects to move in bulk per operation
                    limit is approximate for file streams
                    (default: 100)
--debug
                    Display the elasticsearch commands being used
                    (default: false)
--type
                    What are we exporting?
                    (default: data, options: [data, mapping])
--delete
                    Delete documents one-by-one from the input as they are
                    moved.  Will not delete the source index
                    (default: false)
--searchBody
                    Preform a partial extract based on search results
                    (when ES is the input,
                    (default: '{"query": { "match_all": {} } }'))
--sourceOnly
                    Output only the json contained within the document _source
                    Normal: {"_index":"","_type":"","_id":"", "_source":{SOURCE}}
                    sourceOnly: {SOURCE}
                    (default: false)
--all
                    Load/store documents from ALL indexes
                    (default: false)
--bulk
                    Leverage elasticsearch Bulk API when writing documents
                    (default: false)
--ignore-errors
                    Will continue the read/write loop on write error
                    (default: false)
--scrollTime
                    Time the nodes will hold the requested search in order.
                    (default: 10m)
--maxSockets
                    How many simultaneous HTTP requests can we process make?
                    (default:
                      5 [node <= v0.10.x] /
                      Infinity [node >= v0.11.x] )
--bulk-mode
                    The mode can be index, delete or update.
                    'index': Add or replace documents on the destination index.
                    'delete': Delete documents on destination index.
                    'update': Use 'doc_as_upsert' option with bulk update API to do partial update.
                    (default: index)
--bulk-use-output-index-name
                    Force use of destination index name (the actual output URL)
                    as destination while bulk writing to ES. Allows
                    leveraging Bulk API copying data inside the same
                    elasticsearch instance.
                    (default: false)
--timeout
                    Integer containing the number of milliseconds to wait for
                    a request to respond before aborting the request. Passed
                    directly to the request library. If used in bulk writing,
                    it will result in the entire batch not being written.
                    Mostly used when you don't care too much if you lose some
                    data when importing but rather have speed.
--skip
                    Integer containing the number of rows you wish to skip
                    ahead from the input transport.  When importing a large
                    index, things can go wrong, be it connectivity, crashes,
                    someone forgetting to `screen`, etc.  This allows you
                    to start the dump again from the last known line written
                    (as logged by the `offset` in the output).  Please be
                    advised that since no sorting is specified when the
                    dump is initially created, there's no real way to
                    guarantee that the skipped rows have already been
                    written/parsed.  This is more of an option for when
                    you want to get most data as possible in the index
                    without concern for losing some rows in the process,
                    similar to the `timeout` option.
--inputTransport
                    Provide a custom js file to us as the input transport
--outputTransport
                    Provide a custom js file to us as the output transport
--toLog
                    When using a custom outputTransport, should log lines
                    be appended to the output stream?
                    (default: true, except for `$`)
--help
                    This page

Examples:

# Copy an index from production to staging with mappings:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=http://staging.es.com:9200/my_index \
  --type=data

# Backup index data to a file:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index_mapping.json \
  --type=mapping
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=/data/my_index.json \
  --type=data

# Backup and index to a gzip using stdout:
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=$ \
  | gzip > /data/my_index.json.gz

# Backup ALL indices, then use Bulk API to populate another ES cluster:
elasticdump \
  --all=true \
  --input=http://production-a.es.com:9200/ \
  --output=/data/production.json
elasticdump \
  --bulk=true \
  --input=/data/production.json \
  --output=http://production-b.es.com:9200/

# Backup the results of a query to a file
elasticdump \
  --input=http://production.es.com:9200/my_index \
  --output=query.json \
  --searchBody '{"query":{"term":{"username": "admin"}}}'

------------------------------------------------------------------------------
Learn more @ https://github.com/taskrabbit/elasticsearch-dump`enter code here`

Я пробовал это, но каждый раз получаю сообщение «Ошибка => подключить ECONNREFUSED».
Vagabond

4
как применить базовую аутентификацию?
Mohd Shahid

Остерегайтесь, он еще не поддерживает Elasticsearch 5: github.com/taskrabbit/elasticsearch-dump/issues/259
Ортомала Локни

@OrtomalaLokni похоже, что поддержка 5.x теперь находится в: github.com/taskrabbit/elasticsearch-dump/pull/268
Beau

Я установил аутентификацию для elasticsearch, не могли бы вы рассказать мне, как передать имя пользователя и пароль в команде вместе с местоположением ввода и вывода?
The Gr8 Adakron

42

Используйте ElasticDump

1) yum install epel-release

2) yum install nodejs

3) yum install npm

4) npm установить elasticdump

5) cd node_modules / elasticdump / bin

6)

./elasticdump \

  --input=http://192.168.1.1:9200/original \

  --output=http://192.168.1.2:9200/newCopy \

  --type=data

Это когда данные необходимо перенести из одного места в другое, но на одном сервере. Что, если данные необходимо передать на два разных сервера с двумя разными IP-адресами?
Vagabond

2
@tramp - это 2 разных IP-адреса
де Раад

1
Остерегайтесь, он еще не поддерживает Elasticsearch 5: github.com/taskrabbit/elasticsearch-dump/issues/259
Ортомала Локни,

2
Похоже, Elasticsearch 5 теперь поддерживается github.com/taskrabbit/elasticsearch-dump/pull/268
hayduke

22

Для этого вы можете использовать функцию моментального снимка / восстановления, доступную в Elasticsearch. После того, как вы настроили хранилище моментальных снимков на основе файловой системы, вы можете перемещать его между кластерами и восстанавливать в другом кластере.


1
Проверьте эту ссылку для получения дополнительной информации: qbox.io/blog/elasticsearch-data-snapshots-restore-tutorial
WaughWaugh,

6

Я пробовал на ubuntu переместить данные из ELK 2.4.3 в ELK 5.1.1

Ниже приведены шаги

$ sudo apt-get update

$ sudo apt-get install -y python-software-properties python g++ make

$ sudo add-apt-repository ppa:chris-lea/node.js

$ sudo apt-get update

$ sudo apt-get install npm

$ sudo apt-get install nodejs

$ npm install colors

$ npm install nomnom

$ npm install elasticdump

в домашнем каталоге перейти

$ cd node_modules/elasticdump/

выполнить команду

Если вам нужна базовая http-аутентификация, вы можете использовать ее так:

--input=http://name:password@localhost:9200/my_index

Скопируйте индекс из производства:

$ ./bin/elasticdump --input="http://Source:9200/Sourceindex" --output="http://username:password@Destination:9200/Destination_index"  --type=data

Это хорошо. Просто убедитесь, что вы запустили его sudo apt-get install -y software-properties-commonперед add-apt-repository
Сахас,

надеюсь, что он заслуживает +1
Акшай Патил

5

Также есть _reindexвариант

Из документации:

С помощью API переиндексации Elasticsearch, доступного в версии 5.x и новее, вы можете удаленно подключить новое развертывание Elasticsearch Service к старому кластеру Elasticsearch. Это извлекает данные из вашего старого кластера и индексирует их в новом. При переиндексировании индекс по существу перестраивается с нуля, и его выполнение может потребовать больших ресурсов.

POST _reindex
{
  "source": {
    "remote": {
      "host": "https://REMOTE_ELASTICSEARCH_ENDPOINT:PORT",
      "username": "USER",
      "password": "PASSWORD"
    },
    "index": "INDEX_NAME",
    "query": {
      "match_all": {}
    }
  },
  "dest": {
    "index": "INDEX_NAME"
  }
}

4

Если вы можете добавить второй сервер в кластер, вы можете сделать это:

  1. Добавить сервер B в кластер с сервером A
  2. Увеличить количество реплик для индексов
  3. ES автоматически скопирует индексы на сервер B
  4. Закройте сервер A
  5. Уменьшить количество реплик для индексов

Это будет работать, только если количество замен равно количеству узлов.


3
Я считаю, что это не сработает, когда версии разные (как в случае с вопросом OP)
WoJ

Конечно. Сейчас я работаю над переносом моих данных на ESv5 с ESv1.7. Мой вариант для этого не подойдет, так как многое изменилось в маппингах.
AndreyP 06

3

Если кто-то столкнется с той же проблемой, при попытке сбросить из elasticsearch <2.0 в> 2.0 вам необходимо сделать:

elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=analyzer
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=mapping
elasticdump --input=http://localhost:9200/$SRC_IND --output=http://$TARGET_IP:9200/$TGT_IND --type=data --transform "delete doc.__source['_id']"

1

Мне всегда удавалось просто копировать каталог / папку index на новый сервер и перезапускать его. Вы найдете идентификатор индекса, выполнив операцию, GET /_cat/indicesи папка, соответствующая этому идентификатору, находится внутри data\nodes\0\indices(обычно внутри вашей папки elasticsearch, если вы ее не переместили).


1

Мы можем использовать elasticdumpили multielasticdumpсделать резервную копию и восстановить ее. Мы можем переместить данные с одного сервера / кластера на другой сервер / кластер.

Пожалуйста, найдите подробный ответ, который я дал здесь .


0

Если вам просто нужно перенести данные с одного сервера elasticsearch на другой, вы также можете использовать elasticsearch-document-transfer .

Шаги:

  1. Откройте каталог в своем терминале и запустите
    $ npm install elasticsearch-document-transfer.
  2. Создать файл config.js
  3. Добавьте сведения о подключении обоих серверов elasticsearch в config.js
  4. Установите соответствующие значения в options.js
  5. Запускаем в терминале
    $ node index.js

0

Вы можете сделать снимок полного состояния вашего кластера (включая все индексы данных) и восстановить их (с помощью API восстановления) в новом кластере или сервере.


Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.