Size: a a a

RU.Docker — Официальное Русское Сообщество

2019 October 20

AG

Andrey Gumilev in RU.Docker — Официальное Русское Сообщество
Konstantin
он вроде цепляется по 3306, несколько раз рестарт делал и всегда с одним портом
это если нужно из внешки
источник

AG

Andrey Gumilev in RU.Docker — Официальное Русское Сообщество
3306:3306
источник

AG

Andrey Gumilev in RU.Docker — Официальное Русское Сообщество
как пример
источник

K

Konstantin in RU.Docker — Официальное Русское Сообщество
я так сейчас и сделал, пересобираю и посмотрю
источник

AG

Andrey Gumilev in RU.Docker — Официальное Русское Сообщество
Konstantin
я так сейчас и сделал, пересобираю и посмотрю
гуд
источник

I

Ilya in RU.Docker — Официальное Русское Сообщество
Ilya
Привет!
Вопрос архитектурный больше, ну и совета спросить.
Дано: бэк на python (два образа уже подготовил, app и rabbitmq consumer). И фронт на js.
Цель: сделать генератор сайтов, т.е. три контейнера с новым конфигом == новый сайт.
Создавать это должен менеджер, у которого нет технических знаний. Т.е. зашёл на простую админку, ввел некоторые данные и нажал "создать сайт".
И уже под капотом понеслось:
1. Создалась отдельная БД
2. Сгенерировался конфиг с доступами и данными, которые ввел менеджер
3. Создались контейнеры бэка и фронта с конфигами.
4. Прописались на nginx

Я правильно понимаю, что кроме как писать свой велосипед, других решений нет?
У меня пока два варианта:
1. Создать Jenkins(ну или любую другую ci) джобу. Которая будет эти шаги дергать + простой ui для менеджера (придумаю позже на чем проще). Который будет дергать эти джобки.
2. Полностью свой велосипед, на чем-нибудь вроде flask.

Ну и сейчас выбираю между swarm / k8s. Кластер будем свой поднимать.
Посмотрел бегло тут: [тут должна быть ссылка на хабр] все решения больше для администрирования (какое-то точно прикрутим, чтобы наблюдать за этим зоопарком).

Итого:
1. Не изобретаю ли велосипед? И две описанные реализации -- это единственное возможное?
2. В контексте задачи для генерации сайтов, что лучше подойдет: swarm или k8s? Посмотрел, что есть два пакета питоновских: docker и kubernetes. В целом с хорошей докой (На первый взгляд).
Цель в использовании swarm/k8s простая. Если вдруг (почти не реальная ситуация у нас, малые нагрузки), где-то бэк или фронт завалился, просто докинуть реплику в ручном режиме.

В общем, кто что посоветует. Сразу прошу прощения, если формулировки где-то странные, новая тема, неделю только разбираюсь. Пока только все в образы запихнул и кластер swarm сделал, где смог пока с захардкоженными конфигами запуститься.
И вот подумалось, а не изобретаю ли колесо?
Всем заранее спасибо за критику и советы.
Возник еще вопрос. Пока вожусь со swarm, т.к. образы свои. То для того чтобы сервис стартовал на всех нодах, пришлось поднять свой сервис registry.
И пока получается архитектура такая:
3 ноды swarm, на которых будет registry и сервисы 1...n (фронт / бэк).

Не очень мне нравится что registry будет на тех же нодах что и сервисы, но я пробовал создавать репозиторий просто как отдельный докер контейнер и указывать его при создании сервиса. В таком случае на основной ноде (там же где и контейнер) сервис создается, а вот остальные ноды не видят image.
Т. е. в идеале, я хочу чтобы вся управляющая инфраструктура была на отдельной тачке (т.е. там будет сам репозиторий с образами, скорее всего какой-то CI, может что еще).
Это реально? Надо просто как-то сетку хитро настроить, чтобы все ноды видели репозиторий, который будет на другой тачке?
источник
2019 October 21

k

khesl in RU.Docker — Официальное Русское Сообщество
Ilya
Возник еще вопрос. Пока вожусь со swarm, т.к. образы свои. То для того чтобы сервис стартовал на всех нодах, пришлось поднять свой сервис registry.
И пока получается архитектура такая:
3 ноды swarm, на которых будет registry и сервисы 1...n (фронт / бэк).

Не очень мне нравится что registry будет на тех же нодах что и сервисы, но я пробовал создавать репозиторий просто как отдельный докер контейнер и указывать его при создании сервиса. В таком случае на основной ноде (там же где и контейнер) сервис создается, а вот остальные ноды не видят image.
Т. е. в идеале, я хочу чтобы вся управляющая инфраструктура была на отдельной тачке (т.е. там будет сам репозиторий с образами, скорее всего какой-то CI, может что еще).
Это реально? Надо просто как-то сетку хитро настроить, чтобы все ноды видели репозиторий, который будет на другой тачке?
Почитай про Nexus, там есть докер репозиторий
источник

MG

Max Gerasimov in RU.Docker — Официальное Русское Сообщество
Ilya
Возник еще вопрос. Пока вожусь со swarm, т.к. образы свои. То для того чтобы сервис стартовал на всех нодах, пришлось поднять свой сервис registry.
И пока получается архитектура такая:
3 ноды swarm, на которых будет registry и сервисы 1...n (фронт / бэк).

Не очень мне нравится что registry будет на тех же нодах что и сервисы, но я пробовал создавать репозиторий просто как отдельный докер контейнер и указывать его при создании сервиса. В таком случае на основной ноде (там же где и контейнер) сервис создается, а вот остальные ноды не видят image.
Т. е. в идеале, я хочу чтобы вся управляющая инфраструктура была на отдельной тачке (т.е. там будет сам репозиторий с образами, скорее всего какой-то CI, может что еще).
Это реально? Надо просто как-то сетку хитро настроить, чтобы все ноды видели репозиторий, который будет на другой тачке?
Да доступы настрой, авторизацию на регистри и клиентах и будет ок
источник

VS

Vladislav Starkov in RU.Docker — Официальное Русское Сообщество
Коллеги, подскажите, как сейчас в Docker обстоят дела с организацией сети для SIP / RTP, когда для одного инстанса приложения нужен большой диапазон портов TCP/UDP 10000:40000 и как это решается, когда на одном хосте может быть запущено 5-6 таких инстансов. Что при этом происходит с iptables и процессами на хосте? Спасибо.
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
мне кажется, что Вы не хотите попросту пользоваться бриджом... Можете попробовать либо на хост навесить несколько ip, а пускать контейнеры в хостовой, а само приложение настраиваить на нужный ip, но это гемора много
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
либо второй вариант - macvlan, но я его глубоко не копал
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
касательно sip - задумайтесь еще над чем - если использовать докеровские сети, то айпишник внутри контейнера будет отличаться от айпи хоста - может понадобиться STUN или спец. настройки
источник

P

Protectron in RU.Docker — Официальное Русское Сообщество
Bûrkã Ba, you were banned (teleg.am/m/p30pO)
источник

D

DaySandBox in RU.Docker — Официальное Русское Сообщество
Message from Bûrkã Ba deleted. Reason: new user and external link (?)
источник

VS

Vladislav Starkov in RU.Docker — Официальное Русское Сообщество
George Gaál
касательно sip - задумайтесь еще над чем - если использовать докеровские сети, то айпишник внутри контейнера будет отличаться от айпи хоста - может понадобиться STUN или спец. настройки
Меня в т.ч. это и смущает 🤔
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
а задача какая полная?
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
и, как я понимаю, привлекло удобство использования докер образов?
источник

VS

Vladislav Starkov in RU.Docker — Официальное Русское Сообщество
George Gaál
и, как я понимаю, привлекло удобство использования докер образов?
Overlay FS в Docker удобная штука и, насколько я понимаю, аналогичная штука есть и в LXC, при использовании его с backend fs, поддерживающей snapshots (btrfs, zfs). Но вопрос не в этом. Я хочу понять, кто какую технологию выбирает и чем при этом руководствуется, и вообще, какой уровень понимания того, что он делает и как все там устроено "под капотом".
источник

GG

George Gaál in RU.Docker — Официальное Русское Сообщество
а, ну, ок
источник

S

Slayer in RU.Docker — Официальное Русское Сообщество
Здравствуйте, подскажите почему wget не скачивает файл при сборке Dockerfile?
источник