Size: a a a

2020 November 04

AK

Anton Kosarev in Scala Jobs
Aλeksei Tereχin
Это ты Антона в Талин чтоли хантишь? =) мож ему и в риге веселее будет
Оч красивый город
источник

AD

Apache DOG™ in Scala Jobs
Python
Почему не выйдет? Я пишу только FP скалу, даже если приходится общаться с не FP. Выше пример привёл, человек написал на Tagless Final для Akka Persistence плагин. Кто хочет писать FP будет писать FP, а кто не хочет будет говорить что ему не дают 😊
меня к вам хантили, чего то не схантили.
источник

P

Python in Scala Jobs
Apache DOG™
меня к вам хантили, чего то не схантили.
А чего?
источник

AD

Apache DOG™ in Scala Jobs
Python
А чего?
Не помню. В оба раза было не вовремя.
источник
2020 November 05

MK

Mikhail Konovalov in Scala Jobs
Dima
почему это нельзя реализовать на  охапке консьюмеров + кафка, например?
Да можно хоть на Джаве и зукипере. А можно и на ГридГейне. Вопрос в том, что из этого удобнее, легче сопровождать, надежнее и т.д.
источник

P

Python in Scala Jobs
Dima
почему это нельзя реализовать на  охапке консьюмеров + кафка, например?
Есть нужен низкий latency, и ещё при этом много сообщений, то может с Кафкой не получиться. Если можно обойтись Кафкой и она у вас есть в хорошем состоянии, и специалистами по работе с Кафкой, то это хорошая идея ей обойтись.
источник

A

Alex in Scala Jobs
Python
Есть нужен низкий latency, и ещё при этом много сообщений, то может с Кафкой не получиться. Если можно обойтись Кафкой и она у вас есть в хорошем состоянии, и специалистами по работе с Кафкой, то это хорошая идея ей обойтись.
Все получится, в нете куча статей по latency vs throughput, там по сути 2 параметра консюмера)
источник

VS

Vladimir Sam in Scala Jobs
подозреваю, что на pull-based системе строить что-то очень критичное к latency это такое себе
источник

λ

λoλdog in Scala Jobs
Vladimir Sam
подозреваю, что на pull-based системе строить что-то очень критичное к latency это такое себе
Почему это?
источник

M

Mikhail in Scala Jobs
Vladimir Sam
подозреваю, что на pull-based системе строить что-то очень критичное к latency это такое себе
Нет
источник

P

Python in Scala Jobs
Alex
Все получится, в нете куча статей по latency vs throughput, там по сути 2 параметра консюмера)
Зависит от количества сообщений. Вы не сможете сделать одновременно и low latency, и high throughput. И ещё базу замучаете каждый чих в неё писать.

С Акка кластером у вас не будет такой проблемы - у вас генератор данных может быть даже на той же машине, никакой сети между вами и механизмом обеспечения одного инстанса.
источник

A

Alex in Scala Jobs
Python
Зависит от количества сообщений. Вы не сможете сделать одновременно и low latency, и high throughput. И ещё базу замучаете каждый чих в неё писать.

С Акка кластером у вас не будет такой проблемы - у вас генератор данных может быть даже на той же машине, никакой сети между вами и механизмом обеспечения одного инстанса.
Я в курсе какой там трейдофф, под разные потоки данных разный тюнинг
источник

VS

Vladimir Sam in Scala Jobs
λoλdog
Почему это?
poll interval можно сильно уменьщаь, но он же будет?
источник

P

Python in Scala Jobs
Alex
Я в курсе какой там трейдофф, под разные потоки данных разный тюнинг
Флаг в руки. Если есть Кафка, или даже Пульсар то, очень может быть, это наилучшее решение в вашем случае.

Тут просто спросили зачем Акка, вот я и ответил: если вам нужен кластер. Наверное самое удобное решение для кластера сейчас на рынке. Если вам не нужен кластер (а в большинстве случаев он вам не нужен), то чего и говорить.
источник

λ

λoλdog in Scala Jobs
Vladimir Sam
poll interval можно сильно уменьщаь, но он же будет?
А ты слышал про epoll(0) ?
источник

A

Alex in Scala Jobs
Акка говно (с) зиолюбы ;)
источник

P

Python in Scala Jobs
Просто для информации: с Кафкой можно добиться задержки в миллисекунды, особенно на маленькой нагрузке. Не об этом речь.
источник

VS

Vladimir Sam in Scala Jobs
λoλdog
А ты слышал про epoll(0) ?
пойду почитаю, спасибо
источник

P

Python in Scala Jobs
Alex
Акка говно (с) зиолюбы ;)
источник

N

Nikolay in Scala Jobs
У Кафки long poll . Консьюмер делает заброс и когда данные ему появятся - придет ему ответ
источник