Size: a a a

2019 November 01

EB

Elisei Badanin in Scrapy
Тут есть интересная задача, кто бы как делал? Есть ряд новостных сайтов(несколько десятков), необходимо получать новости как можно скорее(секунды решают...), вот думаю: в скрапи бесконечно генерировать запросы на загрузку фида, или по отдельному демону пустить на каждый сайт и в цикле раз в секунду генерировать, или....? У кого какие идеи?
источник

R

Roma in Scrapy
Реально интересно....У меня подобной задачи не было - могу быть не прав....Мне кажется запуск должен быть с одного места - генерить бесконечный запрос внутри скрапи не верно
источник

EB

Elisei Badanin in Scrapy
Самое простое, идти в лоб и по демону на сайт, а там бесконечный цикл
источник

EB

Elisei Badanin in Scrapy
Но как-то костыльно
источник

R

Roma in Scrapy
Ну тебе ж надо - чтобы можно было легко дописать один спайдер и подключить к фиду и так же убрать
источник

EB

Elisei Badanin in Scrapy
В скрапи запрос генерировать «нормально»... вот только за стабильность переживаю
источник

R

Roma in Scrapy
ну честно говоря - раз в секуду - нехило так то
источник

EB

Elisei Badanin in Scrapy
Мне нужно финансовые новости получать и обрабатывать(отдельная история), там в случае чего интересного через несколько минут новость уже теряет актуальность
источник

EB

Elisei Badanin in Scrapy
Сайты крупные, им мои раз в секунду как слону дробинка
источник

R

Roma in Scrapy
Да понимаю - для трейдинга -я б все таки выбирал запуск через API - все спайдеры в одном проекте - просто лупом перебирал, так чтобы можно было легко добавить спайдер - легко убрать спайдер и не делать дополнительного демона - один демон на всех
источник

R

Roma in Scrapy
или такой вариант - не успеет запустить все за секунду?
источник

EB

Elisei Badanin in Scrapy
Скрапи? И на idle генерировать новый запос к фиду?
источник

EB

Elisei Badanin in Scrapy
Ну в теории можно в scrapyd это все завернуть..
источник

R

Roma in Scrapy
я про него так то и думал
источник

R

Roma in Scrapy
да не запустит за сек точно
источник

EB

Elisei Badanin in Scrapy
Ну так-то да, но нужно сам скрапид опрашивать
источник

EB

Elisei Badanin in Scrapy
Думал два паука и между ними очередь...первый грузит фиды, если есть что-то новое, то отправляет в очередь. Второй уже парсит сами новости
источник

EB

Elisei Badanin in Scrapy
Ну или и правда по процессу на сайт и бесконечный цикл, может и костыльно, но зато стабильно
источник

R

Roma in Scrapy
Блин - даж не знаю - но я за надежность все таки - чтобы потом не е....я раскопками
источник

EB

Elisei Badanin in Scrapy
А вот интересно, если довнлоэд_дэлэй поставить и достаточно потоков, и в каждом кэлбэке снова кидать запрос к этому же фиду, выйдет ли раз в секунду или там все в итоге загнётся
источник