Всем доброго дня ! Очень рассчитываю на вашу помощь, ДУМАЮ ПРОФЕССИОНАЛАМ ВАШЕГО УРОВНЯ НЕ СОСТАВИТ ТРУДА МНЕ ПОМОЧЬ !
Уже минимум 2 недели бьюсь над проблеммой с :
2020-08-10 06:45:47 [scrapy.core.engine] INFO: Spider opened
2020-08-10 06:45:47 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2020-08-10 06:45:47 [scrapy.extensions.telnet] INFO: Telnet console listening on
127.0.0.1:60242020-08-10 06:45:49 [scrapy.core.engine] DEBUG: Crawled (200) <GET
https://maxi.az/telefonlar-ve-plansetler/telefonlar/smartfonlar/xiaomi-redmi-9a-2gb-32gb-green/> (referer: None)
2020-08-10 06:45:50 [scrapy.core.scraper] ERROR: Spider error processing <GET
https://maxi.az/telefonlar-ve-plansetler/telefonlar/smartfonlar/xiaomi-redmi-9a-2gb-32gb-green/> (referer: None)
Traceback (most recent call last):
File "C:\Users\751\anaconda3\lib\site-packages\twisted\internet\
defer.py", line 654, in _runCallbacks
current.result = callback(current.result, *args, **kw)
File "C:\Users\751\anaconda3\lib\site-packages\scrapy\spiders\__init__.py", line 90, in parse
raise NotImplementedError('{}.parse callback is not defined'.format(self.__class__.__name__))
NotImplementedError: MaxiazbotSpider.parse callback is not defined
2020-08-10 06:45:50 [scrapy.core.engine] INFO: Closing spider (finished)
Я только начинаю осваивать питон и скрапи , но уже методом проб и ошибок спарсил несколько десятков сайтов ) на некоторых сайтах встречается этот злосчастный callback , подскажите пожалуйста как с ним бороться ?!?
Пауки у меня самые примитивные с минимум кода , всего то спарсить адресс URL, наименование и цену товара(
Перечитал всё что только можно по теме , перебирал и разбирал готовые примеры кода других пауков и т д , но никаких результатов (
В более стандартных/рабочих ситуациях код моего паука выглядит как , подскажите пожалуйста что нужно подправить чтобы решить проблему с callback
import scrapy
from ..items import MaxiAzItem
class MaxiazbotSpider(scrapy.Spider):
name = 'maxiazbot'
allowed_domains = ['
maxi.az']
start_urls = ['
https://maxi.az/telefonlar-ve-plansetler/smart-saat-ve-aksesuarlar/smart-saat/xiaomi-mi-band-4-black/']
def parse(self,response):
for content in response.xpath('//*[contains(concat( " ",
@class, " " ), concat( " ", "wrap", " " ))]'):
yield {
'url': response.url,
'product_name': response.xpath('//h1/text()').extract_first(),
'price': response.xpath('//*[@id="fix-info"]/div[5]/div[1]/text()').extract_first()
}