Size: a a a

Kubernetes — русскоговорящее сообщество

2020 September 19

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
стратегия неплохая, если учесть, до легаси этого овердофига везде, люди готовы платить за суппорт,
а в поезд они не впрыгнут никогда, уже сколько раз пытались )))
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
цель не какой-то продукт делать, а тупо бабки рубить, вот и все. Ну цель благородная. К тому же, зачем продукт делать, когда можно просто бабки рубить без всяких этих  мерзких программистов!
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
вот начали монетизировать, щас сначала потихоньку лимиты врубят на докерхабе, потом вообще бесплатных поотключают, потом прикроют, зачем эта дыра в бюджете нужна вообще, от нее толку нет
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
тем более и докер не лучшие времена переживает, гиганты его уже закопали и пути назад нет, уже запилили альтернатив. just a business, sorry
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
Ну Фридланд молодец, русский еврей, гражданин Америки, всех купить и потом продать в цикле, это в крови )))
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
как в рассказе про Боливара у О'Генри
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
ну, сотрудников они не обижали, корпоративы в яхтклубе, командировки постоянные. ЗП в баксах, Воспоминания только приятные )))
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
когда всех выставили, бонусы всем давали, кто-то квартиру прикупил после этого, кто-то и не одну )
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Gene
типа лучше запускать ингресс контроллер на другой ноде. ну или ранчер не на порту 80/443. сейчас пришлось поменять порты ингресса на 81/444 и стало хорошо
Костыли
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Есть ещё вариант - публиковать ранчер панель через тот же ингресс, но у него есть сайд эффекты
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
С постоянным отвалом панели
источник

G

Gene in Kubernetes — русскоговорящее сообщество
😁😁😁 а когда было без костылей
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
ноуп спасибо. К нему больше вопросов в плане IaC если честно, да и прогон там минут 15 занимает, это если нод мало, а если много то хз сколько, мб в районе нескольких часов . Также смущают changed таски при  нескольких прогонах подряд
++*
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Artem Silenkov
вот начали монетизировать, щас сначала потихоньку лимиты врубят на докерхабе, потом вообще бесплатных поотключают, потом прикроют, зачем эта дыра в бюджете нужна вообще, от нее толку нет
В интересное время живем, адынака
источник

DE

Daniil Ermolenko in Kubernetes — русскоговорящее сообщество
Всем привет. Стоит такая задача, посчитать трафик у каждого пода, которые образует один сервис. То есть сделать подсчет пакетов на нескольких репликах приложения. Я пробовал iperf3, но он не подключается к репликам сервера. Только если сервис имеют один endpoint, iperf считает трафик и я при этом могу видеть трафик на veth интерфейсе контейнера.  Подскажите пожалуйста как можно решить подобное? Может быть использовать другие инструменты. кластер Kube из двух рабочих узлов и одно мастерового, kube proxy переключил в режим ipvs (хотел посмотреть пинг на service).
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Daniil Ermolenko
Всем привет. Стоит такая задача, посчитать трафик у каждого пода, которые образует один сервис. То есть сделать подсчет пакетов на нескольких репликах приложения. Я пробовал iperf3, но он не подключается к репликам сервера. Только если сервис имеют один endpoint, iperf считает трафик и я при этом могу видеть трафик на veth интерфейсе контейнера.  Подскажите пожалуйста как можно решить подобное? Может быть использовать другие инструменты. кластер Kube из двух рабочих узлов и одно мастерового, kube proxy переключил в режим ipvs (хотел посмотреть пинг на service).
некоторые cni дают такие метрики
источник

DE

Daniil Ermolenko in Kubernetes — русскоговорящее сообщество
Dmitry Sergeev
некоторые cni дают такие метрики
Есть плагины cni, которые считают трафик на своих интерфейсах?
источник

А

Андрей А in Kubernetes — русскоговорящее сообщество
как вариант можно цеплять сайдкар контейнер, но я бы сначала поискал какие-то готовые решения, сам не сталкивался с такой задачей)
источник

DS

Dmitry Sergeev in Kubernetes — русскоговорящее сообщество
Daniil Ermolenko
Есть плагины cni, которые считают трафик на своих интерфейсах?
трафик подов, да
источник

DE

Daniil Ermolenko in Kubernetes — русскоговорящее сообщество
Андрей А
как вариант можно цеплять сайдкар контейнер, но я бы сначала поискал какие-то готовые решения, сам не сталкивался с такой задачей)
Я думаю сайдкар это это излишне. Я бы хотел сделать генерацию udp трафика на сервис, и посчитать сколько было получено на репликах сервера. Как iperf3 это делает, но походу его нельзя настроить на распределенный сервер с несколькими репликами. В принципе все пакеты можно тем же tcpdump'ом посмотреть на veth интерфейсе, поэтому сайдкар, возможно вы про istio говорите, будет избыточен. Я дампил veth просто при обычном curl сервиса nginx 2 реплики.
источник