Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 05

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Alexey Shanko
беги пока не сказали что кубер не нужен)
да хз, помойму это общая рекомендация для рапспределенных систем, в кубе ты или нет уже не важно. Я не знаю почему он решил, что для прода это не рекомендуется, а якобы нужно запускать все строго по порядку.
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Падающий бэкенд при обрыве связи с базой это плохо что в кубе, что на голой виртуалке
источник

V

Vadim in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
да хз, помойму это общая рекомендация для рапспределенных систем, в кубе ты или нет уже не важно. Я не знаю почему он решил, что для прода это не рекомендуется, а якобы нужно запускать все строго по порядку.
рекомендуется что раз приложение запустилось оно должно работать, а вот есть lazy initialization в spring boot, чтобы оно все бины на старте не создавало, а только при первом обращении, в таком случае приложение стартанет, даже если не будет корректно работать по факту
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Vadim
рекомендуется что раз приложение запустилось оно должно работать, а вот есть lazy initialization в spring boot, чтобы оно все бины на старте не создавало, а только при первом обращении, в таком случае приложение стартанет, даже если не будет корректно работать по факту
похоже на какие-то Java проблемы или конкретного фреймворка на java, уже второй раз за сегодня. Сорян, я с java никак вообще, ничего не могу посоветовать. Но с другими ЯП таких проблем не имел, все было реализуемо и довольно просто
источник

IK

Ilia Koteikin in Kubernetes — русскоговорящее сообщество
Ребзя, подскажите плиз, как сконфигурировать в istio envoy.reloadable_features.reject_unsupported_transfer_encodings=false ? Сейчас я могу через exec сделать: curl -XPOST -s -o /dev/null http://localhost:15000/runtime_modify\?envoy.reloadable_features.reject_unsupported_transfer_encodings=false само собой после рестарта пода слетает =(
источник

ВМ

Владимир Муковоз... in Kubernetes — русскоговорящее сообщество
Доброго всем дня. Есть два пода, приложение в нём сыпет такие логи доступа в лог пода.

{address space usage: 681623552 bytes/650MB} {rss usage: 505954304 bytes/482MB} [pid: 11|app: 0|req: 3413/46204] 10.244.166.163 () {74 vars in 2158 bytes} [Wed Nov  4 18:19:10 2020] GET /courses/steps/11684/ => generated 85706 bytes in 9625 msecs (HTTP/1.1 200) 5 headers in 293 bytes (3 switches on core 0)

Я хочу хочу собрать статистику запросов и когда запрос занял очень много времени, как вот этот что я скинул в примере (
9625 msecs
) получать алерт например в телеграм чат. Сюда стучусь за советом, как это лучше организовать в кубернетесе, возможно есть примеры, буду признателен, в прочем будет достаточно и просто пояснения по какому принципу делать, а я уже поразбираюсь как именно. Заранее спасибо.
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Владимир Муковоз
Доброго всем дня. Есть два пода, приложение в нём сыпет такие логи доступа в лог пода.

{address space usage: 681623552 bytes/650MB} {rss usage: 505954304 bytes/482MB} [pid: 11|app: 0|req: 3413/46204] 10.244.166.163 () {74 vars in 2158 bytes} [Wed Nov  4 18:19:10 2020] GET /courses/steps/11684/ => generated 85706 bytes in 9625 msecs (HTTP/1.1 200) 5 headers in 293 bytes (3 switches on core 0)

Я хочу хочу собрать статистику запросов и когда запрос занял очень много времени, как вот этот что я скинул в примере (
9625 msecs
) получать алерт например в телеграм чат. Сюда стучусь за советом, как это лучше организовать в кубернетесе, возможно есть примеры, буду признателен, в прочем будет достаточно и просто пояснения по какому принципу делать, а я уже поразбираюсь как именно. Заранее спасибо.
ты можешь долгие запросы ловить по метрикам из prometheus и на это настроить алерты. Логи парсить для этого не обязательно. Если у тебя nginx ingress-controller от комьюнити куба то есть метрики:
nginx_ingress_controller_request_duration_*
nginx_ingress_controller_response_duration_*
источник

DZ

Dmitriy Zaytsev in Kubernetes — русскоговорящее сообщество
Владимир Муковоз
Доброго всем дня. Есть два пода, приложение в нём сыпет такие логи доступа в лог пода.

{address space usage: 681623552 bytes/650MB} {rss usage: 505954304 bytes/482MB} [pid: 11|app: 0|req: 3413/46204] 10.244.166.163 () {74 vars in 2158 bytes} [Wed Nov  4 18:19:10 2020] GET /courses/steps/11684/ => generated 85706 bytes in 9625 msecs (HTTP/1.1 200) 5 headers in 293 bytes (3 switches on core 0)

Я хочу хочу собрать статистику запросов и когда запрос занял очень много времени, как вот этот что я скинул в примере (
9625 msecs
) получать алерт например в телеграм чат. Сюда стучусь за советом, как это лучше организовать в кубернетесе, возможно есть примеры, буду признателен, в прочем будет достаточно и просто пояснения по какому принципу делать, а я уже поразбираюсь как именно. Заранее спасибо.
По одному запросу алертить - это способ получить алерты, которым не веришь. А вообще такое сейчас иначе делают - считают внутри среднее время запроса (или по бакетам раскладывают) и выводят в виде метрички для прометея.
источник

DZ

Dmitriy Zaytsev in Kubernetes — русскоговорящее сообщество
Ребятушки, а кто живёт в кубере со спотами? Делаете переключение на ондеманд при нехватке спотов? Чем потом обратно на споты двигаете нагрузку?
источник

ВМ

Владимир Муковоз... in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ты можешь долгие запросы ловить по метрикам из prometheus и на это настроить алерты. Логи парсить для этого не обязательно. Если у тебя nginx ingress-controller от комьюнити куба то есть метрики:
nginx_ingress_controller_request_duration_*
nginx_ingress_controller_response_duration_*
Сейчас копну в эту сторону, спасибо.
источник

ВМ

Владимир Муковоз... in Kubernetes — русскоговорящее сообщество
Dmitriy Zaytsev
По одному запросу алертить - это способ получить алерты, которым не веришь. А вообще такое сейчас иначе делают - считают внутри среднее время запроса (или по бакетам раскладывают) и выводят в виде метрички для прометея.
ответ сервера который занял более 9 сек это очень не нормально и такого вообще быть не должно, то есть в нормлаьном состоянии не будет ниодного алерта
источник

AK

Andrey Korviakov in Kubernetes — русскоговорящее сообщество
Привет. Ребят, кто юзает managed k8s в selectel, как оно? Жить можно?
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
господа, а как то все логи на ноде можно катнуть?
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
*sm1Ly
господа, а как то все логи на ноде можно катнуть?
в смысле?
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
kvaps
в смысле?
ну у меня есть грейлог, я могу ноду найти, но не факт что проблема там, мне надо катнуть и грепнуть все логи на всех контах
источник

DZ

Dmitriy Zaytsev in Kubernetes — русскоговорящее сообщество
grep -R ?
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
не, моя не понимай
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
kubectl logs  --kubeconfig Downloads/timo-group-k2-kubeconfig.yaml --all-containers=true
error: expected 'logs (POD | TYPE/NAME) [CONTAINER_NAME]'.
POD or TYPE/NAME is a required argument for the logs command
See 'kubectl logs -h' for help and examples.
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
написано ж logs
источник

*

*sm1Ly in Kubernetes — русскоговорящее сообщество
чяднт?
источник