Кластер Elasticseach не будет выбирать нового мастера после потери предыдущих на ECK

У меня есть кластер ES 7.4.0, использующий ECK 1.0, и после того, как мои 3 выделенных мастер-узла закончились на диске, я удалил их вместе с томами, чтобы протестировать критический сценарий.

Как только были созданы новые подходящие мастера, они не могли избрать нового члена. Теперь кластер застрял навсегда, хотя он видит новые подходящие главные серверы (модули в k8s).

Есть ли способ заставить ES избрать нового мастера, даже если предыдущие не учитываются?

Имейте в виду, что у мастеров не было данных. Все данные находятся только на узлах данных. К сожалению, я не могу получить к ним доступ, пока мастер не выбран.


person gmolaire    schedule 16.11.2019    source источник


Ответы (2)


Имейте в виду, что у мастеров не было данных.

Это не совсем так. Главные узлы содержат метаданные кластера, которые необходимы Elasticsearch для правильного понимания данных, хранящихся на узлах данных. Поскольку вы удалили метаданные, данные в узлах данных фактически бессмысленны.

На этом этапе лучше всего начать заново с нового кластера и восстановить данные из недавнего моментального снимка.

person Dave Turner    schedule 16.11.2019
comment
Спасибо, Дэйв, за ответ. Я имел в виду, что он не содержит бизнес-данных и имеет право только на мастер - person gmolaire; 16.11.2019

Еще не имея моментального снимка, я решил перенести узлы данных в новый кластер.

Я воссоздал 3 мастер-узла и убедился, что они присоединились к новому кластеру с выбранным мастером. После этого я отсоединил узлы данных от их предыдущего кластера и позволил им ассоциироваться с новым. Я знал о риске и, к счастью, не потерял данные, кроме своих учетных данных безопасности xpack.

Я выполнил процедуру здесь и адаптировал его для моего случая с ECK, обновив контейнер инициализации statefulset.

После такой боли я не могу не подчеркнуть ценность снимков.

person gmolaire    schedule 16.11.2019