Size: a a a

Чат подкаста «Разбор Полётов»

2021 February 01

過酸化水素 in Чат подкаста «Разбор Полётов»
Vik Gamov
@Kankas_dtsehw а какие compute modules порекомендуешь для TuringPi?
К сожалению мне могу посоветовать, смотреть нужно чтоб памяти было как минимум 2гб, armv8 и был дистрибутив 64 бита. У меня 3 rock64 (cortex-a53) с 4гб на каждой. Саппорт у rock64 хуже чем у raspberry pi.
источник

過酸化水素 in Чат подкаста «Разбор Полётов»
источник

JK

Jurijs Kolomijecs in Чат подкаста «Разбор Полётов»
Andrei Rebrov
Разбор падения Slack от 4 января:

https://slack.engineering/slacks-outage-on-january-4th-2021/

Весьма полезное чтиво – хронология, детали, выводы. Кроме ставшего классическим /proc/sys/fs/file-max, есть и специфичные амазоновские причины.

Масштабирование AWS Transit GateWay (TGW)

TGW менеджится Амазоном, потому повлиять на него мы не можем. В то время, как часть проблем у Slack возникла из-за того, что резко возросший трафик через их корневой TGW, через который завязаны их окружения, давал ошибки, не успевая масштабироваться, добавляя проблем во время падения Slack. Амазоновцы вручную боролись с этой ситуацией:

However, our TGWs did not scale fast enough. During the incident, AWS engineers were alerted to our packet drops by their own internal monitoring, and increased our TGW capacity manually.

Чтобы такого избежать, нужно "прогревать" TGW, аналогично тому, как такое предусмотрено для ELB:

https://aws.amazon.com/articles/best-practices-in-evaluating-elastic-load-balancing/#pre-warming

Shared VPC vs different VPCs

Другой момент – отрицательные стороны от использования отдельных VPC. Если бы у Slack использовалась Shared VPC – и для окружения, и для мониторинга, то трафик бы не упёрся бы в узкое горлышко TGW (его скорости масштабирования), через который и соединяются отдельные VPC.

#TGW #Shared_VPC #design
Иногда я счастлив, что траффик моих систем ничтожен по сравнению с гигантами. С одной стороны делаешь системы под высокую нагрузку с масштабированием и отказоустойчивостью, с другой не приходится трахаться с тонкостями. Кайф.
источник

過酸化水素 in Чат подкаста «Разбор Полётов»
@gamussa думаю вот такое себе напечатать, давно хочу шкафчик на стенку повесить
источник

AR

Andrei Rebrov in Чат подкаста «Разбор Полётов»
@Kankas_dtsehw @gamussa а на кой вам рапсбери?
источник

AR

Andrei Rebrov in Чат подкаста «Разбор Полётов»
источник

VG

Vik Gamov in Чат подкаста «Разбор Полётов»
Andrei Rebrov
@Kankas_dtsehw @gamussa а на кой вам рапсбери?
Карманный Кубе кластер?
источник

AR

Andrei Rebrov in Чат подкаста «Разбор Полётов»
Чтобы что?
источник

VG

Vik Gamov in Чат подкаста «Разбор Полётов»
Стримы гонять ессесно
источник

VG

Vik Gamov in Чат подкаста «Разбор Полётов»
Какие-нибудб knative и проч
источник

過酸化水素 in Чат подкаста «Разбор Полётов»
Andrei Rebrov
@Kankas_dtsehw @gamussa а на кой вам рапсбери?
Гм. Ну я буду хайлоад на минималках реализовывать в одно жало. Эксперименты
источник

VG

Vik Gamov in Чат подкаста «Разбор Полётов»
過酸化水素
Гм. Ну я буду хайлоад на минималках реализовывать в одно жало. Эксперименты
Девопс какой-нибудь опять же
источник

NK

ID:0 in Чат подкаста «Разбор Полётов»
Разбор падения Slack от 4 января:

https://slack.engineering/slacks-outage-on-january-4th-2021/

Весьма полезное чтиво – хронология, детали, выводы. Кроме ставшего классическим /proc/sys/fs/file-max, есть и специфичные амазоновские причины.

Масштабирование AWS Transit GateWay (TGW)

TGW менеджится Амазоном, потому повлиять на него мы не можем. В то время, как часть проблем у Slack возникла из-за того, что резко возросший трафик через их корневой TGW, через который завязаны их окружения, давал ошибки, не успевая масштабироваться, добавляя проблем во время падения Slack. Амазоновцы вручную боролись с этой ситуацией:

However, our TGWs did not scale fast enough. During the incident, AWS engineers were alerted to our packet drops by their own internal monitoring, and increased our TGW capacity manually.

Чтобы такого избежать, нужно "прогревать" TGW, аналогично тому, как такое предусмотрено для ELB:

https://aws.amazon.com/articles/best-practices-in-evaluating-elastic-load-balancing/#pre-warming

Shared VPC vs different VPCs

Другой момент – отрицательные стороны от использования отдельных VPC. Если бы у Slack использовалась Shared VPC – и для окружения, и для мониторинга, то трафик бы не упёрся бы в узкое горлышко TGW (его скорости масштабирования), через который и соединяются отдельные VPC.

#TGW #Shared_VPC #design
источник
2021 February 02

SE

Sergei Egorov in Чат подкаста «Разбор Полётов»
источник

SE

Sergei Egorov in Чат подкаста «Разбор Полётов»
источник

AA

Alexey Abashev in Чат подкаста «Разбор Полётов»
Доктор: Хотите вакцину?
Белорус: Нет.
Доктор: Но мы повесим ваше фото на доску почета и дадим вымпел.
Белорус: Тогда да.
источник

SE

Sergei Egorov in Чат подкаста «Разбор Полётов»
Alexey Abashev
Доктор: Хотите вакцину?
Белорус: Нет.
Доктор: Но мы повесим ваше фото на доску почета и дадим вымпел.
Белорус: Тогда да.
1. Баян
2. Политота
3. Скучно 😀
источник

IT

Ihar Tigar in Чат подкаста «Разбор Полётов»
я уж подумал, Сергей и в Грааль контрибьютит
источник

IT

Ihar Tigar in Чат подкаста «Разбор Полётов»
успокоился, что это в рассылке jdk
источник

SE

Sergei Egorov in Чат подкаста «Разбор Полётов»
Ihar Tigar
я уж подумал, Сергей и в Грааль контрибьютит
Боже упаси! Моих знаний в этой сфере не хватает даже для того, чтобы просто рядом с Томасом находиться ))
источник