Size: a a a

2017 January 17

MM

Michael Maltsev in Elasticsearch
Как роли раскидали?
источник

A

Anatoly in Elasticsearch
три ноды, три мастера. у меня же нет нагрузки пока :)
источник

MM

Michael Maltsev in Elasticsearch
Ну и общие впечатления по производительности
источник

A

Anatoly in Elasticsearch
Michael Maltsev
Ну и общие впечатления по производительности
хуже не стало :D
источник

MM

Michael Maltsev in Elasticsearch
Жаль, ну тогда как запустимся расскажу
источник
2017 January 22

DZ

Dmitriy Zaytsev in Elasticsearch
источник

A

Artur in Elasticsearch
источник
2017 January 23

ℝuƷ1Ʒʒ7 in Elasticsearch
Aleksandr Sleptsov
то что день бьется на 5 частей, это настройки по умолчанию, оставил, думал это для ускарения сделано
Всем привет! Так и есть.

У меня вот возник вопрос во всей вашей дискуссии про щарды. Почему все так уверенно говорят, что лучше один шард.
Давайте разберёмся в вопросе, что такое шард.
Один хорошо для записи, но плохо для чтения. Распределение данных индекса, ускоряет в разы поиск по ним, т.к. поиск производит асинхронный по каждому шарду.
Поправьте меня, если я написал что-то неправильно.
источник

A

Anatoly in Elasticsearch
Поправляю: it depends.
источник

A

Anatoly in Elasticsearch
Если у вас 10 мегабайт данных, то 1000 шардов будет скорее всего медленно
источник

A

Anatoly in Elasticsearch
Плюс, если у нас нет реплик, то запись в много шардов и запись в один шард по скорости не отличаются, т.к. один конкретный документ живёт в одном конкретном шарде
источник

A

Anatoly in Elasticsearch
бест практики по эластиксёрчу пишут, что построить сразу хранилище, которое при росте объёма в 100-1000 раз (ну там, с гигабайта до терабайта) не придётся переделывать - не получится.
источник

E

Etki in Elasticsearch
Ускоряло бы, если бы на каждый шард был отдельный цпу и диск
источник

E

Etki in Elasticsearch
С учетом того, что кластер скорее всего чем-то занят, это вряд ли даст гигантский буст
источник

A

Anatoly in Elasticsearch
Etki
Ускоряло бы, если бы на каждый шард был отдельный цпу и диск
шарды надо делать, когда объём данных превышает возможности одной тачки
источник

A

Anatoly in Elasticsearch
ну, заранее, разумеется.
источник

E

Etki in Elasticsearch
С учетом того, что каждый шард и так на сегменты бьется - не уверен, что стоит повторять вручную
источник

A

Anatoly in Elasticsearch
в смысле не уверен? Вот одна машина, памяти 128 Гб. У вас данных 256 Гб и все нужны. Я вас уверяю, шардирование сильно поможет
источник

E

Etki in Elasticsearch
А я все еще предыдущему автору отвечаю
источник

E

Etki in Elasticsearch
Только больше 32 гб не стоит выписывать из-за oop
источник