Size: a a a

2020 January 28

AR

Andrey Rahmatullin in Scrapy
А какого рода ошибки и зачем отследить? Скрапи обычно ретраит их
источник

V

Viktor in Scrapy
ну не загрузил он к примеру с 3 попыток страницу с пагинацией, он же не будет туда до упора ломиться?)
источник

МС

Михаил Синегубов in Scrapy
Viktor
ну не загрузил он к примеру с 3 попыток страницу с пагинацией, он же не будет туда до упора ломиться?)
1. количество попыток можно менять
2. а надо ли их именно сохранять? обычно не может скачать если: нет страницы, сервак лег, косяк в парсере, забанили. Все эти причины тянут за собой уже изменение самого парсера....
источник

AR

Andrey Rahmatullin in Scrapy
Viktor
ну не загрузил он к примеру с 3 попыток страницу с пагинацией, он же не будет туда до упора ломиться?)
5 раз по дефолту (вроде)
источник

AR

Andrey Rahmatullin in Scrapy
а отследить постфактум можно в логе
источник

V

Viktor in Scrapy
а допаршиваете сайт как? чтобы он по удачно сохраненным ссылкам не бегал больше?
источник

AR

Andrey Rahmatullin in Scrapy
от задачи зависит
источник

AR

Andrey Rahmatullin in Scrapy
зачем его нужно допарсивать?
источник

V

Viktor in Scrapy
ну прошла неделя, месяц, появился новый контент
источник

МС

Михаил Синегубов in Scrapy
Viktor
ну прошла неделя, месяц, появился новый контент
юзать что то вроде этого
https://github.com/scrapy-plugins/scrapy-deltafetch
источник

AR

Andrey Rahmatullin in Scrapy
и типа новые продукты надо парсить, а старые не надо?
источник

V

Viktor in Scrapy
да, старые уже не нужны, только новые
источник

V

Viktor in Scrapy
к ид не привязаться
источник

AR

Andrey Rahmatullin in Scrapy
ну тогда вон то, точнее есть замена получше
источник

AR

Andrey Rahmatullin in Scrapy
а к урлу привязаться?
источник

МС

Михаил Синегубов in Scrapy
Andrey Rahmatullin
ну тогда вон то, точнее есть замена получше
ну, это была первая ссыль в гугле 😂
я просто не помню название второй либы
источник

V

Viktor in Scrapy
о спасибо, похоже это то что надо)
источник

МС

Михаил Синегубов in Scrapy
Viktor
о спасибо, похоже это то что надо)
ты погугли, есть какая то еще либа, может эта и "не торт" окажется
источник

AR

Andrey Rahmatullin in Scrapy
источник

V

Viktor in Scrapy
а есть кто парсит большие объемы? где итемсов набирается по 50 штук. каждую страницу в отдельный json парсить это рационально?
источник