Size: a a a

2020 August 30

S

Spirit💎 in Scrapy
а что происходит вообще, он не завершается самостоятельно или из-за чего ошибка?
источник

AR

Andrey Rahmatullin in Scrapy
Он запускает и завершает реактор, а это нельзя делать второй раз
источник

К

Кирилл in Scrapy
Spirit💎
вообще, послать задачу, чтобы запустился краулер, собрал страницы и выгрузил в пайплайне в json, пока только это. ну и подразумевается, что таск передает параметр в виде домена краулеру
Это делает scrapyd, тебе уже его советовали
источник

S

Spirit💎 in Scrapy
Кирилл
Это делает scrapyd, тебе уже его советовали
решил более гибко сделать( я почему не взял scrapyd, не понял, как джанго будет проверять, что задача выполнена
источник

К

Кирилл in Scrapy
Эмм.. а ты документацию читал?
источник

S

Spirit💎 in Scrapy
ладно, пошел еще раз почитаю)
источник

К

Кирилл in Scrapy
Ладно бы ты ещё нашел как оно там делается, и решил что такой вариант не подходит. Но "не понял" и пошёл своё писать, это уж как-то слишком)
источник

S

Spirit💎 in Scrapy
Кирилл
Ладно бы ты ещё нашел как оно там делается, и решил что такой вариант не подходит. Но "не понял" и пошёл своё писать, это уж как-то слишком)
я так понял, проверять через listjobs?
источник

К

Кирилл in Scrapy
Spirit💎
я так понял, проверять через listjobs?
Да, но как видишь там есть некоторые существенные недостатки
источник

S

Spirit💎 in Scrapy
Кирилл
Да, но как видишь там есть некоторые существенные недостатки
это ты о том, что после перезапуска данные пропадают?
источник

К

Кирилл in Scrapy
Об этом и о том, что оно всё в одном пакете приходит, без фильтров, если у тебя будет много коротких запусков, будут относительно большие объемы данных приходить
источник

К

Кирилл in Scrapy
Это уже от твое задачи зависит, подойдет ли
источник

S

Spirit💎 in Scrapy
если не подойдет, лезть в сорцы и править scrapyd? поскольку иные варианты кажутся еще более сложными)
источник

МП

Максим Петров... in Scrapy
Spirit💎
господа, а дружил кто scrapy с celery? отдаю таск, а мне после первого выдает twisted.internet.error.ReactorNotRestartable
CELERY_WORKER_MAX_TASKS_PER_CHILD = 1
источник

К

Кирилл in Scrapy
Нет, лезть точно не нужно
источник

S

Spirit💎 in Scrapy
Максим Петров
CELERY_WORKER_MAX_TASKS_PER_CHILD = 1
но тут все же наверное стоит еще убрать CrawlerProcess, потому что этот конфиг не помог
источник

МП

Максим Петров... in Scrapy
Spirit💎
но тут все же наверное стоит еще убрать CrawlerProcess, потому что этот конфиг не помог
работает с ним
источник

МП

Максим Петров... in Scrapy
в селери док можно почитать и понятть подходит ли для твоего кейса
источник

МП

Максим Петров... in Scrapy
Spirit💎
господа, а дружил кто scrapy с celery? отдаю таск, а мне после первого выдает twisted.internet.error.ReactorNotRestartable
но эту проблему обойти поможет однозначно
источник

S

Spirit💎 in Scrapy
https://gist.github.com/clockdev/470b61a1cf1e2bd5c433db239ffa1cfb
вот весь конфиг с пауком, все остальные конфиги дефолтные. даже при CrawlerRunner возникает та же петрушка с реактором
источник