Size: a a a

2021 May 24

DS

Dmitry Sergeev in DevOps
это когда данные не теряешь на db2 + zfs
источник

RA

Ruslan Abdullaev in DevOps
источник

ЕО

Евгений Омельченко... in DevOps
Коллеги, давайте не репостить профунктор-оптикс в чат
источник

AS

Aleksey Shirokikh in DevOps
тем более без репоста
источник

D

Denis 災 nobody in DevOps
С репостом оно ещё хуже
источник

AC

Alexander 😼 Chistyak... in DevOps
Какой еще профунктор оптикс? Никогда не слышал!
источник
2021 May 25

P

Pavel in DevOps
Коллеги, а в дб2 можно женкинсом деплоить.?
источник

ЕО

Евгений Омельченко... in DevOps
Нет, только scp
источник

P

Pavel in DevOps
Плохой продукт
источник

ЕО

Евгений Омельченко... in DevOps
Его нужно деплоить один раз в жизни, он же не развивается
источник

P

Pavel in DevOps
Раз в жизни светлячков))
источник

AA

Andrey A in DevOps
Доброе утро. Есть вопрос по опции restart=always у докер контейнеров:
у нас есть пачка контейнеров, у которых выставлена данная опция.
Внутри контейнеров работает софт на C++, который периодически может падать
(segmentation fault). Сами контейнеры при этом останавливаются с таким кодом:
docker ps -a | grep -i exit
20..   registry.ru/ssp:5                "/usr/local/bin/dock…"   32 hours ago   Exited (139) 2 hours ago                            ssp1
...
Само падение не страшно, если докер потом обратно поднимет контейнеры (на одном хосте с десяток таких контейнеров плюс самих хостов с десяток).
Почти всегда так и происходит, но иногда, не понятно почему, докер контейнеры обратно не поднимает. Т.е. в контейнерах на хосте массово (в пределах пары минут) происходит segfault, контейнеры стопнулись и докер обратно их не пытается поднимать.

Логи событий по одному из контейнеров:
 docker events --since "2021-05-01"  --filter container=ssp1
...
2021-05-21T19:32:57.554949557+03:00 container die ... exitCode=139, image=registry.ru/ssp:5
2021-05-21T21:57:02.237286190+03:00 container start  ... image=registry.ru/ssp:5
2021-05-21T23:34:24.346921893+03:00 container die ... exitCode=139, image=registry.ru/ssp:5
2021-05-21T23:34:26.727113672+03:00 container start ... image=registry.ru/ssp:5
...
2021-05-23T14:35:05.392302401+03:00 container die ...
2021-05-23T22:15:24.825501692+03:00 container start ...
В 19:32 было падение, в 21:57 руками его подняли. В 23:34 было опять падение, но здесь докер уже сам запустил контейнер.
В 14:35 опять упал, в 22:15 опять подняли руками.

docker inspect ssp1 | jq '.[0].HostConfig.RestartPolicy'
{
"Name": "always",
"MaximumRetryCount": 0
}
Как такое полечить/поправить?
источник

AA

Andrey A in DevOps
оркестратора нету (k8s), хотелось бы поправить ситуацию нативными средствами
источник

АВ

Александр Вир... in DevOps
Про нужный канал ты в курсе
источник

N

Nikita in DevOps
Всем хорошего дня!
Вопрос по gitlab ci.
Есть пайплайн надо сделать так чтобы джоба запускалась в зависимости от результата предыдущей.
Пример: есть стейдж линт, есть стейдж билд. Если на линте все окей, то билд должен запускаться автоматически. Если линт упал, то билд должен запускаться автоматически.

Сейчас в билде сделал две джобы - одну on_success, другую manual. Но так не работает если делать линт allow_failure: true, то запускается автоматический билд, а если поставить allow_failure:false, то пайплайн просто падает на линте и не даёт запускать в ручную билд.

Есть какое то решение для такой ситуации?
источник

PG

Pavel Gassan in DevOps
а смысл игнорировать линт?
источник

AN

Andrey NordKoT in DevOps
смысл тогда в линте
источник

RA

Ruslan Abdullaev in DevOps
allow_failure: true должен был помочь
источник

PG

Pavel Gassan in DevOps
так он и пишет что запускается, а потом сетует на то что в allow_failure: false не работает, что логично
источник

PG

Pavel Gassan in DevOps
но это не отменяет вопрос - нафига тогда линт если не зависимо от его результата надо билдить
источник