Size: a a a

Kubernetes — русскоговорящее сообщество

2021 April 05

МS

Михаил SinTeZoiD... in Kubernetes — русскоговорящее сообщество
Timofey Larkin
что-то не очень хорошее читал именно про ospf, но направление мне нравится
У нас есть инсталляция калико переделанная под ospf и bird
источник

Л

Лишний in Kubernetes — русскоговорящее сообщество
Если умеете, то хорошо. В противном случае для первой итерации рабочей конфигурации я бы не стал.
источник

МS

Михаил SinTeZoiD... in Kubernetes — русскоговорящее сообщество
Лишний
Если умеете, то хорошо. В противном случае для первой итерации рабочей конфигурации я бы не стал.
Типо админы у вас умеют только в VRRP?)
источник

L

Lucky SB in Kubernetes — русскоговорящее сообщество
Stas Drozdov
Opensource solution
источник

SD

Stas Drozdov in Kubernetes — русскоговорящее сообщество
больше нет
источник

SD

Stas Drozdov in Kubernetes — русскоговорящее сообщество
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
Dmitriy Sergeevich
Блин это что получается, что бы поднять "нормальный" кластер нужно как минимум 9 машин?
3 под воркеры
3 под мастера
3 под vrrp и ингресс контролеры
Так контекст-то какой:
3 мастера, потому что во-первых нужен кворум, во-вторых, у вас большая нагрузка, в кубере много объектов, манифесты постоянно добавляются и удаляются.
2 или 3 выделенных хоста под ингресс контроллеры, так как у вас большая нагрузка, много пользователей, куча правил ингресса, ингресс контроллеры жрут кучу памяти и цпу, пакеты летают туда сюда...
и 50+ воркеров, так как как иначе поместить туда всю эту активность?
источник

SD

Stas Drozdov in Kubernetes — русскоговорящее сообщество
Following recent license change, Elasticsearch and Kibana OSS versions are no more available starting 7.11.0. See Elastic blog post for more details.
источник

TL

Timofey Larkin in Kubernetes — русскоговорящее сообщество
а если в кластере полторы калеки, то 3 хоста, которые одновременно совмещают все роли, делов-то.
источник

Л

Лишний in Kubernetes — русскоговорящее сообщество
Михаил SinTeZoiD
Типо админы у вас умеют только в VRRP?)
Так вы отвечаете человеку, который еще не дошел просто до того, чтобы у него работало. Куда ему оспф прикручивать?
источник

SM

Sergey Monakhov in Kubernetes — русскоговорящее сообщество
Stas Drozdov
Following recent license change, Elasticsearch and Kibana OSS versions are no more available starting 7.11.0. See Elastic blog post for more details.
вы перепродавать его собрались?
> Starting with the upcoming Elastic 7.11 release, we will be moving the Apache 2.0-licensed code of Elasticsearch and Kibana to be dual licensed under SSPL and the Elastic License, giving users the choice of which license to apply. SSPL is a source-available license created by MongoDB to embody the principles of open source while providing protection against public cloud providers offering open source products as a service without contributing back.
источник

SD

Stas Drozdov in Kubernetes — русскоговорящее сообщество
Sergey Monakhov
вы перепродавать его собрались?
> Starting with the upcoming Elastic 7.11 release, we will be moving the Apache 2.0-licensed code of Elasticsearch and Kibana to be dual licensed under SSPL and the Elastic License, giving users the choice of which license to apply. SSPL is a source-available license created by MongoDB to embody the principles of open source while providing protection against public cloud providers offering open source products as a service without contributing back.
нет, но пользоваться можно им я так понимаю, что из их клауда
источник

SD

Stas Drozdov in Kubernetes — русскоговорящее сообщество
а, путаю
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Народ привет. А подскажите как на Nginx ingress залочить для всех location:
api/*/actuator/prometheus
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
   nginx.ingress.kubernetes.io/configuration-snippet: |
     location /api/(.+)/actuator/prometheus {
       return 403;
     }
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
Попробовал так, но что-то не особо
источник

k

kk in Kubernetes — русскоговорящее сообщество
Подскажите, как начать использовать Vault? Мне больше просто разобраться как работает.

Вот поставил
helm install vault hashicorp/vault

Теперь висит
vault-agent-injector- 1/1
vault-0 0/1

kubectl port-forward vault-0 8200:8200 выдает следующее:


Forwarding from 127.0.0.1:8200 -> 8200
Forwarding from [::1]:8200 -> 8200


И дальше ничего не происходит.

Когда открываю ip:8200 - так же ничего.
Сначала подумал что дело в ufw, но нет.
источник

B

Bear in Kubernetes — русскоговорящее сообщество
kk
Подскажите, как начать использовать Vault? Мне больше просто разобраться как работает.

Вот поставил
helm install vault hashicorp/vault

Теперь висит
vault-agent-injector- 1/1
vault-0 0/1

kubectl port-forward vault-0 8200:8200 выдает следующее:


Forwarding from 127.0.0.1:8200 -> 8200
Forwarding from [::1]:8200 -> 8200


И дальше ничего не происходит.

Когда открываю ip:8200 - так же ничего.
Сначала подумал что дело в ufw, но нет.
Kubectl descibe pod vault-0
источник

k

kk in Kubernetes — русскоговорящее сообщество
Хотя это я тупой, там в логах seal configuration missing, not initialized 😄
источник

S

Solyar in Kubernetes — русскоговорящее сообщество
kk
Подскажите, как начать использовать Vault? Мне больше просто разобраться как работает.

Вот поставил
helm install vault hashicorp/vault

Теперь висит
vault-agent-injector- 1/1
vault-0 0/1

kubectl port-forward vault-0 8200:8200 выдает следующее:


Forwarding from 127.0.0.1:8200 -> 8200
Forwarding from [::1]:8200 -> 8200


И дальше ничего не происходит.

Когда открываю ip:8200 - так же ничего.
Сначала подумал что дело в ufw, но нет.
Ну он у тебя 0/1, он не стартанул же
источник