Size: a a a

Kubernetes — русскоговорящее сообщество

2020 November 02

AK

Andrey Klimentyev in Kubernetes — русскоговорящее сообщество
Leo Pol'd
Да просто столько читал и смотрел туториалы
Иди работать туда, где используют Kubernetes. Через полгода всё встанет на свои места.
источник

LP

Leo Pol'd in Kubernetes — русскоговорящее сообщество
Andrey Klimentyev
Иди работать туда, где используют Kubernetes. Через полгода всё встанет на свои места.
Нам дали задачу ее развернутт
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
Всем привет!
А кто-нибудь разворачивал кластер с помощью RKE2?
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
Я вот сейчас решил попробовать и мне непонятен один момент
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
To avoid certificate errors with the fixed registration address, you should launch the server with the tls-san parameter set. This option adds an additional hostname or IP as a Subject Alternative Name in the server's TLS cert, and it can be specified as a list if you would like to access via both the IP and the hostname.
Here is an example of what the RKE2 config file (at /etc/rancher/rke2/config.yaml) would look like if you are following this guide:

token: my-shared-secret
tls-san:
 - my-kubernetes-domain.com
 - another-kubernetes-domain.com


Я должен указать DNS-имя указывающее куда?
- на первый мастер?
- на все мастера?
- на все ноды?
- или создать DNS-запись указывающую вообще на всех членов кластера?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
от задачи зависит
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
но выглядит логичныс в tls-san добисать адреса и fqdn всех балансировщиков
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
и айпи всех мастер нод
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
George Gaál
но выглядит логичныс в tls-san добисать адреса и fqdn всех балансировщиков
ну пока балансировщиков нет никаких, все в самом начале пути )))
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
т.е., пока напишу fqdn и айпи всех мастер нод?
источник

GG

George Gaál in Kubernetes — русскоговорящее сообщество
Да
источник

AN

Alexey Nakhimov in Kubernetes — русскоговорящее сообщество
спаасибо!
источник

b

bob in Kubernetes — русскоговорящее сообщество
а без балансировщика нужны дополнительные мастера?
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
ребята, вопрос касательно афинити. У меня стоит так, что поды не должны размещатся рядом не одной ноде. И когда я пытаюсь заскейлить больше чем у меня нод - шедулен не создает поду так-как говорит что нет для нее свободного места
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
affinity:
       podAntiAffinity:
         requiredDuringSchedulingIgnoredDuringExecution:
           - labelSelector:
               matchExpressions:
                 - key: "app.kubernetes.io/name"
                   operator: In
                   values:
                     - '{{ .Chart.Name }}'
             topologyKey: "kubernetes.io/hostname
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Andru Cherny
ребята, вопрос касательно афинити. У меня стоит так, что поды не должны размещатся рядом не одной ноде. И когда я пытаюсь заскейлить больше чем у меня нод - шедулен не создает поду так-как говорит что нет для нее свободного места
А вопрос в чем?
источник

AC

Andru Cherny in Kubernetes — русскоговорящее сообщество
Как сделать так, чтоб можно было заскейлить чтоб по 2 поды на одной ноде были ну и т. д.
источник

АМ

Артем Мещеряков... in Kubernetes — русскоговорящее сообщество
Andru Cherny
Как сделать так, чтоб можно было заскейлить чтоб по 2 поды на одной ноде были ну и т. д.
requiredDuringSchedulingIgnoredDuringExecution —> заменить required на preferred
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
Andru Cherny
Как сделать так, чтоб можно было заскейлить чтоб по 2 поды на одной ноде были ну и т. д.
источник

AL

Aleksey Lazarev in Kubernetes — русскоговорящее сообщество
A “Soft rule” is a PreferredSchedulingTerm in NodeAffinity.PreferredDuringSchedulingIgnoredDuringExecution, which means the rule is “preferred during scheduling” but likewise has no effect on an already-running Pod.
источник