Size: a a a

2020 June 11

MT

M T in nginx_ru
В прокси пасс
источник

SZ

Sergey Zavada in nginx_ru
сек, ща попробую
источник

SZ

Sergey Zavada in nginx_ru
Получил следующею ошибку:
nginx: [emerg] "proxy_pass" cannot have URI part in location given by regular expression, or inside named location, or inside "if" statement, or inside "limit_except"
источник

Y

Yaros in nginx_ru
скажите, а сколько nginx может обрабатывать запросов в секунду для множества( десятки тысяч ) небольших  json респонсов, все они кэшируются?
вопрос вот откуда: текущая архитектура  предполагает, что хтмл клиент будет делать поисковой запрос к серверу, а сервер отвечать длинным( 100+ ) списком айдишников объектов. После этого клиент каждый из этих документов отдельно запрашивает по айди. А nginx кэширует все эти документы. Архитектор говорит, что не смотря на то, что у браузера есть ограничение в 6 одновременных запросов к серверу и нам нужен поллинг каждые 3 секунды, так как все объекты небольшие, это нормально делать по 100 запросов к серверу каждые 3 секунды. Мол кэш nginx легко такое держит для сотен клиентов. Верно ли я понимаю, что все нормально с таким решением или есть хитрые подводные камни?
источник

AN

Anton Noginov in nginx_ru
На более-менее среднем железе нет никаких проблем отдать порядка полумиллиона закэшированных файлов.
источник

AD

Alex Demidov in nginx_ru
Yaros
скажите, а сколько nginx может обрабатывать запросов в секунду для множества( десятки тысяч ) небольших  json респонсов, все они кэшируются?
вопрос вот откуда: текущая архитектура  предполагает, что хтмл клиент будет делать поисковой запрос к серверу, а сервер отвечать длинным( 100+ ) списком айдишников объектов. После этого клиент каждый из этих документов отдельно запрашивает по айди. А nginx кэширует все эти документы. Архитектор говорит, что не смотря на то, что у браузера есть ограничение в 6 одновременных запросов к серверу и нам нужен поллинг каждые 3 секунды, так как все объекты небольшие, это нормально делать по 100 запросов к серверу каждые 3 секунды. Мол кэш nginx легко такое держит для сотен клиентов. Верно ли я понимаю, что все нормально с таким решением или есть хитрые подводные камни?
расскажите архитектору что HTTP/2 давно уже на дворе
источник

М

Ману in nginx_ru
я вот чего не понимаю, расскажите мне, слоупоку, зачем сбрасывать работу бэкэнд части на нгинкс? это гораздо проще сделать, если в нгинксе не ахти, а если вопрос в скорости - учитывая текущие мощности средних серверов это вообще не проблема
источник

М

Ману in nginx_ru
просто искренне этого не понимаю, или на работе сисадминов заставляют делать работу бэкэнд программистов что ли?)))😁
источник

Y

Yaros in nginx_ru
Мне немного непонятно, имеются у варианта описанного выше проблемы или так и нужно правильно делать? Просто мне всегда казалось, что лучше взять и все данные передать за один запрос. Если ответ получается слишком велик, можно его разбить. Также есть вопрос будет ли выше нагрузка на сеть, учитывая, что много клиентов постоянно кучей запросов, пусть и супер-легковесных спамят постоянно?
источник

AN

Anton Noginov in nginx_ru
Yaros
Мне немного непонятно, имеются у варианта описанного выше проблемы или так и нужно правильно делать? Просто мне всегда казалось, что лучше взять и все данные передать за один запрос. Если ответ получается слишком велик, можно его разбить. Также есть вопрос будет ли выше нагрузка на сеть, учитывая, что много клиентов постоянно кучей запросов, пусть и супер-легковесных спамят постоянно?
Однозначного ответа нет.
Сильно зависит от того, как устроены потоки данных.

Когда-то правильно паковать все в один запрос/ответ.
Когда-то - строго наоборот
источник

Y

Yaros in nginx_ru
@Fearan а можно тут чуть подробнее от чего зависит, какие факторы? Если есть где на этот счет почитать - буду признателен.
источник

AN

Anton Noginov in nginx_ru
Где почитать - не скажу, ибо не знаю.
А зависит - ну например если каждый блок данных дальше на клиенте как-то парсится - независимо - то чем быстрее в сторону клиента чанки вылетят, тем быстрее рендер закончится. Имеет смысл плевать поштучно, по готовности.

Если же данные в чанках зависимые - то выдавать одной кучей разумнее
источник

И

Илья in nginx_ru
Коллеги, помогите чем смогите
источник

И

Илья in nginx_ru
источник

И

Илья in nginx_ru
такое происходит  при обновлении страницы
источник

И

Илья in nginx_ru
источник

И

Илья in nginx_ru
такое при первом залогиниваании и гулянию по вкладкам сайта
источник

И

Илья in nginx_ru
но при f5 белый лист лог в image.png
источник

И

Илья in nginx_ru
как описать location чтобы при f5 оно тоже шло на прокси и брало данные из конкретного пути
источник

И

Илья in nginx_ru
я так понял что нужно идти за данными POST ом
источник