Size: a a a

2020 January 04

АМ

Алексей Мелолян in Scrapy
источник

АМ

Алексей Мелолян in Scrapy
а в идеале хотелось бы, чтобы основная функция приостанавливалась на время получения списка авторов
источник

АМ

Алексей Мелолян in Scrapy
подскажите пожалуйста в какую сторону смотреть
источник

AR

Andrey Rahmatullin in Scrapy
Inline_requests
источник

AR

Andrey Rahmatullin in Scrapy
Код не смотрел
источник

AR

Andrey Rahmatullin in Scrapy
Ну или просто в мете передать, если там не цикл
источник

АМ

Алексей Мелолян in Scrapy
Andrey Rahmatullin
Inline_requests
все получилось, спасибо)
источник
2020 January 05

В

Владислав in Scrapy
Доброго дня суток. Начал использовать Splash для отображения страниц. Обнаружил, что он отображает далеко не все, что нужно. Попробовал другой вариант - Selenium. Он работает, есть даже реализация scrapy-selenium, но не поддерживает параллельные запросы. Вторая проблема с ним - иногда падает/зависает до окончания работы паука, если нужно пропарсить много страниц. Есть ли у вас другие варианты на примете?
источник

AR

Andrey Rahmatullin in Scrapy
Может просто в сплеше ждать нужного элемента?
источник

В

Владислав in Scrapy
Я выставлял splash:wait(5). По логам видно, что все запросы завершаются за 0.5с
источник

E

Evgen in Scrapy
Попробуйте выключить приватный режим в splash
источник

E

Evgen in Scrapy
Попробуйте сэмулировать скролл
источник

В

Владислав in Scrapy
Evgen
Попробуйте выключить приватный режим в splash
Спасибо! Помогло
источник

AR

Andrey Rahmatullin in Scrapy
🤔
источник

МС

Михаил Синегубов in Scrapy
народ. скрапи как то позволяет посмотреть количество запланированных запростов?
источник

МС

Михаил Синегубов in Scrapy
либо я в логику не раздупляю, либо одно из двух....
    def start_requests(self):
       for ids in self.data:
           yield scrapy.Request(....)
           self.location_requests += 1


на парсинг чуть больше 10 тыс локаций, периодиченость лога 1 минута, через минуту сделано 839 запросов + 2152 дополнительных (запрос доп. данных) на счетчике 25....

это что получается, у меня CONCURRENT_REQUESTS=50, и скрапи берет первые 50 ссылок и пока очередь не очистится, остальные брать не будет?
источник

AR

Andrey Rahmatullin in Scrapy
да
источник

AR

Andrey Rahmatullin in Scrapy
источник

AR

Andrey Rahmatullin in Scrapy
есть планы это исправить
источник

МС

Михаил Синегубов in Scrapy
от жеж, пичаль-тоска.....
ну, придется костылить 😂
источник