Size: a a a

Kubernetes — русскоговорящее сообщество

2020 September 25

AA

Artyom Abramovich in Kubernetes — русскоговорящее сообщество
Вангану - спрей
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Pavel Litvyak
А какая разница? А Квапса небось чарт тоже ставится в момент бутстрапа)
На данный момент нет, но подумываю об этом
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Сначала хотел вообще цилиум захардкодить и чтобы кластер-мэш автоматически поднимался между кластерами
источник

AA

Artyom Abramovich in Kubernetes — русскоговорящее сообщество
что тебя остановило?)
источник

АФ

Александр Фадеев... in Kubernetes — русскоговорящее сообщество
kvaps
Чем бутстрапишь?
rke, учитывая как он топит за него 😂
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Artyom Abramovich
что тебя остановило?)
Принцип "не усложняй"
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
А ещё я сегодня Konnectivity заимплементил
источник

AA

Artyom Abramovich in Kubernetes — русскоговорящее сообщество
kvaps
Принцип "не усложняй"
да это не про тебя 😃
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
kvaps
А ещё я сегодня Konnectivity заимплементил
Оказывается куб умеет через него не только с кластером нод общаться, но также и с etcd и другими мастерами
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Artyom Abramovich
да это не про тебя 😃
Разве?
Я вроде не стремлюсь решить все проблемы на свете, выбираю максимально простые и элегантные компоненты😊
источник

k

kvaps in Kubernetes — русскоговорящее сообщество
Просто у меня задачи бывают сложные :D
источник

AA

Artyom Abramovich in Kubernetes — русскоговорящее сообщество
да да 😊
поэтому это не про тебя
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
чарты это пакаджи для кубера, части кубера, такие, как CNI plugin, это не пакадж!
это как юмом айпитеблес настраивать. Можно, но зачем?)
источник

АЦ

Андрей Царев... in Kubernetes — русскоговорящее сообщество
Почему вот такой deployment не переезжает на другую ноду при выключении той, на которой он работал?
apiVersion: apps/v1
kind: Deployment
metadata:
 name: watch-deployment
 namespace: insentry
 labels:
   app: watch
spec:
 replicas: 1
 selector:
   matchLabels:
     app: watch
 template:
   metadata:
     labels:
       app: watch
   spec:
     containers:
       - name: watch
         image: server1:8002/insentry/watch:v2
         ports:
           - containerPort: 9200
источник

АЦ

Андрей Царев... in Kubernetes — русскоговорящее сообщество
есть еще 2 живых ноды но он почему-то не хочет туда
источник

IK

Ilia Koteikin in Kubernetes — русскоговорящее сообщество
Андрей Царев
есть еще 2 живых ноды но он почему-то не хочет туда
Сделай describe po и посмотри почему он не хочет
источник

YY

Yuriy Yurov in Kubernetes — русскоговорящее сообщество
Всем привет. Может кто сталкивался с проблемой.

Есть кластер k8s, внутри живет Jenkins который деплоит джобы через jnlp, В пайплайне финальная стадия билд имеджа с артифактами….
Выглядит это так….

 - name: docker
   image: customrepo/docker
   command: ["cat"]
   tty: true
   volumeMounts:
    - name: docker-sock
      mountPath: /var/run/docker.sock
 volumes:
 - name: docker-sock
   hostPath:
     path: /var/run/docker.sock


и

       stage ('Stage six: Build Image’) {
           steps {
               container('docker'){
                 sh '$(aws ecr get-login --no-include-email --region us-east-1)'
                 sh """
                 cd /var/www/${env.APP}
                 docker build -t ${env.APP}:latest --build-arg BUILD_ID=$BUILD_ID .
                 docker tag ${env.APP}:latest 0000000000.dkr.ecr.us-east-1.amazonaws.com/${env.APP}:latest
                 docker push 0000000000.dkr.ecr.us-east-1.amazonaws.com/${env.APP}:latest
                 """
             }
           }
       }

И все с виду прекрасно….
Имедж билдится прекрасно…. НО если я хочу чтото доустановить на этом этапе в контейнер через Dockerfile, RUN apk add python3 К примеру.
Тоесть я произвожу операции резольва DNS то я получаю ошибки. Вот к примеру когда я тестировал резольв изнутри имеджа. [91mping: mail.ru: Temporary failure in name resolution
22:42:54   [0mThe command '/bin/sh -c ping -c 3 mail.ru' returned a non-zero code: 2
Или к примеру в процессе билда я выполнил RUN cat /etc/resolf.conf с ответом nameserver 172.30.0.2 что говорит о том что контейнер незнает про Core-DNS.
Есть идея что проброс docker.sock недостаточен.
Также простейший пример этого по данной ссылке. https://pushbuildtestdeploy.com/jenkins-on-kubernetes-building-docker-images/
Повторюсь… что билдится все прекрасно если не обращаться к внешним ресурсам в процессе билда RUN pip3 install boto3 К примеру.
источник

АЦ

Андрей Царев... in Kubernetes — русскоговорящее сообщество
Ilia Koteikin
Сделай describe po и посмотри почему он не хочет
Events:
 Type     Reason          Age                From               Message
 ----     ------          ----               ----               -------
 Normal   Scheduled       30m                default-scheduler  Successfully assigned insentry/watch-deployment-689db89777-5kh8g to server2
 Normal   Pulled          30m                kubelet            Container image "server1:8002/insentry/watch:v2" already present on machine
 Normal   Created         30m                kubelet            Created container watch
 Normal   Started         30m                kubelet            Started container watch
 Normal   SandboxChanged  17m (x2 over 18m)  kubelet            Pod sandbox changed, it will be killed and re-created.
 Normal   Started         17m                kubelet            Started container watch
 Normal   Created         17m                kubelet            Created container watch
 Normal   Pulled          17m                kubelet            Container image "server1:8002/insentry/watch:v2" already present on machine
 Warning  NodeNotReady    15m (x2 over 19m)  node-controller    Node is not ready
 Normal   SandboxChanged  13m                kubelet            Pod sandbox changed, it will be killed and re-created.
 Normal   Pulled          13m                kubelet            Container image "server1:8002/insentry/watch:v2" already present on machine
 Normal   Created         13m                kubelet            Created container watch
 Normal   Started         13m                kubelet            Started container watch
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
Yuriy Yurov
Всем привет. Может кто сталкивался с проблемой.

Есть кластер k8s, внутри живет Jenkins который деплоит джобы через jnlp, В пайплайне финальная стадия билд имеджа с артифактами….
Выглядит это так….

 - name: docker
   image: customrepo/docker
   command: ["cat"]
   tty: true
   volumeMounts:
    - name: docker-sock
      mountPath: /var/run/docker.sock
 volumes:
 - name: docker-sock
   hostPath:
     path: /var/run/docker.sock


и

       stage ('Stage six: Build Image’) {
           steps {
               container('docker'){
                 sh '$(aws ecr get-login --no-include-email --region us-east-1)'
                 sh """
                 cd /var/www/${env.APP}
                 docker build -t ${env.APP}:latest --build-arg BUILD_ID=$BUILD_ID .
                 docker tag ${env.APP}:latest 0000000000.dkr.ecr.us-east-1.amazonaws.com/${env.APP}:latest
                 docker push 0000000000.dkr.ecr.us-east-1.amazonaws.com/${env.APP}:latest
                 """
             }
           }
       }

И все с виду прекрасно….
Имедж билдится прекрасно…. НО если я хочу чтото доустановить на этом этапе в контейнер через Dockerfile, RUN apk add python3 К примеру.
Тоесть я произвожу операции резольва DNS то я получаю ошибки. Вот к примеру когда я тестировал резольв изнутри имеджа. [91mping: mail.ru: Temporary failure in name resolution
22:42:54   [0mThe command '/bin/sh -c ping -c 3 mail.ru' returned a non-zero code: 2
Или к примеру в процессе билда я выполнил RUN cat /etc/resolf.conf с ответом nameserver 172.30.0.2 что говорит о том что контейнер незнает про Core-DNS.
Есть идея что проброс docker.sock недостаточен.
Также простейший пример этого по данной ссылке. https://pushbuildtestdeploy.com/jenkins-on-kubernetes-building-docker-images/
Повторюсь… что билдится все прекрасно если не обращаться к внешним ресурсам в процессе билда RUN pip3 install boto3 К примеру.
а что там за агент? inbound?
источник

AS

Artem Silenkov in Kubernetes — русскоговорящее сообщество
запусти его с network=host, посмотри починится?
источник