Size: a a a

Архитектура ИТ-решений

2019 December 12

AW

Alex Wells in Архитектура ИТ-решений
Phil Delgyado
У вас что, одна операция в секунду и то не всегда?
То есть ничего между 100к и 1 не может быть?
источник

d

dreamore in Архитектура ИТ-решений
Phil Delgyado
Интерфейс - не пригоден для вывода больше 30 строк на экран, да и сами строки выводятся не целиком. И не работает с многострочными записями (без костылей).
Медленно - как только хочется писать хотя бы 100K строк в секунду (а это мало, на самом деле). Впрочем, там и так набегает по полному ядру на 5K строк в секунду, что очень медленно.
Видел в контуре такую историю. Elk меняется на efk. Добавлется кафка как sidecar для каждого приложения с маленьким окном сохранения, чтобы не терять логи и втыкается между производителями логов и efk. Индексы отключаются. Только в ручном режиме и строго по регламенту некоторые люди могут строить индексы. Дошли до 300TB логов. +40GB в сутки
источник

AW

Alex Wells in Архитектура ИТ-решений
Alex Wells
Представьте, если бы для каждого небольшого фрилансового проектов находили девопса, дба, покупали триллион подписок на сервисы и еще несколько десятков синиоров в придачу - ну идиотизм же.

Да, есть инструменты покруче, но их применение должно быть оправдано
А мы - небольшая компания. Над данным конкретным проектом работает +-12 девелоперов, включая мидлов (меня) и фронтов.
источник

d

dreamore in Архитектура ИТ-решений
В общем плохие решения порождают горы костылей к ним
источник

AW

Alex Wells in Архитектура ИТ-решений
какой смысл думать над проблемами, с которыми мы еще долгое время не столкнемся?
источник

IN

Igor Nikolskiy in Архитектура ИТ-решений
Phil Delgyado
Антипаттерн - так как провоцирует писать не структурированные логи и искать по "подстроке" (при этом еще и поиск по подстроке делается через полноценный полнотекстовый, что тоже замедляет все и дает не всегда хорошие результаты)
Sed ? Awk?
источник

PD

Phil Delgyado in Архитектура ИТ-решений
Alex Wells
То есть ничего между 100к и 1 не может быть?
1 операция в секунду - это уже, по хорошему, несколько сотен записей в лог...
источник

AW

Alex Wells in Архитектура ИТ-решений
есть более насущеные проблемы
источник

PD

Phil Delgyado in Архитектура ИТ-решений
dreamore
Видел в контуре такую историю. Elk меняется на efk. Добавлется кафка как sidecar для каждого приложения с маленьким окном сохранения, чтобы не терять логи и втыкается между производителями логов и efk. Индексы отключаются. Только в ручном режиме и строго по регламенту некоторые люди могут строить индексы. Дошли до 300TB логов. +40GB в сутки
Ну, тут оставили и эластик (который не для таких задач) и кибану (которая тоже не совсем про логи) - и понятно, что напоролись.
источник

AW

Alex Wells in Архитектура ИТ-решений
Phil Delgyado
1 операция в секунду - это уже, по хорошему, несколько сотен записей в лог...
Даже интересно стало. Может знаете, где глянуть?
источник

d

dreamore in Архитектура ИТ-решений
Phil Delgyado
Ну, тут оставили и эластик (который не для таких задач) и кибану (которая тоже не совсем про логи) - и понятно, что напоролись.
Ну хоть логи они стали собирать не в виде строк а в виде json с общим форматом на организацию
источник

PD

Phil Delgyado in Архитектура ИТ-решений
Igor Nikolskiy
Sed ? Awk?
Ну, я пока за хранение в CH (или в аналогичной колоночной базе, не важно). Выборки, в зависимости от целей - или через UI с поддержкой максимального числа строк на экране или sql-ем из IDE или из sql в файл и дальше less-ом (это для анализа по реально большим массивам, где хочется глазами видеть все, что творилось на кластере перед проблемой...)
источник

PD

Phil Delgyado in Архитектура ИТ-решений
Alex Wells
Даже интересно стало. Может знаете, где глянуть?
Глянуть на что?
источник

PD

Phil Delgyado in Архитектура ИТ-решений
dreamore
Ну хоть логи они стали собирать не в виде строк а в виде json с общим форматом на организацию
А, ну это полезно, да...
Я сейчас вообще скорее за то, что бы приложение писало что придется в sysout (можно даже не json), оттуда читал простенький анализатор и фигачил в jsonl, а уже этот jsonl через fluentbit отдавать в CH (или в аггрегатор перед CH, если, например, хочется с этим еще что-то делать). Ну или можно между fluentbit и CH ставить kafka (если есть ресурсы)
источник

IN

Igor Nikolskiy in Архитектура ИТ-решений
Phil Delgyado
Ну, я пока за хранение в CH (или в аналогичной колоночной базе, не важно). Выборки, в зависимости от целей - или через UI с поддержкой максимального числа строк на экране или sql-ем из IDE или из sql в файл и дальше less-ом (это для анализа по реально большим массивам, где хочется глазами видеть все, что творилось на кластере перед проблемой...)
А смысл? Искусственный интеллект напускать в поспроцессинге? Не проще ли препроцессинг и xml? И like по жизни. Нет?
источник

PD

Phil Delgyado in Архитектура ИТ-решений
dreamore
Видел в контуре такую историю. Elk меняется на efk. Добавлется кафка как sidecar для каждого приложения с маленьким окном сохранения, чтобы не терять логи и втыкается между производителями логов и efk. Индексы отключаются. Только в ручном режиме и строго по регламенту некоторые люди могут строить индексы. Дошли до 300TB логов. +40GB в сутки
А зачем kafka как sidecar, в нее же нормально писать потоком сотням тысяч строк в секунду на пару брокеров. И забирать с оптимальным окном для хранилища.
источник

IN

Igor Nikolskiy in Архитектура ИТ-решений
Или у тебя 'сторнирование' наше всё?
источник

PD

Phil Delgyado in Архитектура ИТ-решений
Igor Nikolskiy
А смысл? Искусственный интеллект напускать в поспроцессинге? Не проще ли препроцессинг и xml? И like по жизни. Нет?
Какой искусственный интелект, какой xml, никаких like )
источник

PD

Phil Delgyado in Архитектура ИТ-решений
Igor Nikolskiy
Или у тебя 'сторнирование' наше всё?
Эээ, поясняй..
источник

IN

Igor Nikolskiy in Архитектура ИТ-решений
У тебя raw данные, в любом формате. Для какой бизнес задачи? Я знаю их ровно две. Вернуть всё до копеечки. И аудит. Всё.
источник