Size: a a a

2019 July 27

SB

Sergey Belash in rannts
Это на node?
источник

K

Keanor in rannts
да
источник

SB

Sergey Belash in rannts
Хм, посмотрю, спс.
источник

SB

Sergey Belash in rannts
А оно умеет претворяться хромом или любым другим "настоящим" браузером? Не то чтобы это было 100% нужно, но может быть
источник

AM

Artem Malyshev in rannts
Keanor
phantomjs :)
О не умер ещё?
источник

K

Keanor in rannts
и puppeteer можно попробовать ))
источник

K

Keanor in rannts
он уже настоящий браузер)
источник

SS

Sergey Smyshlyaev in rannts
Sergey Z
что-то детектируется существенное отклонение от тематики чата.
есть спецчаты для политоты, не надо привлекать сюда товарища майора, у него много действительно важных дел
Майор сейчас митингом в Москве занят
источник

SB

Sergey Belash in rannts
Keanor
phantomjs :)
«Using QtWebKit as the back-end...»
Ух. Node.js+Qt что может пойти не так с этой технологией
источник

SA

Sergey Arkhipov in rannts
Artem Malyshev
О не умер ещё?
Помер
источник

in

ildar nizamov in rannts
Sergey Belash
А какую тулу лучше всего использовать чтоб залогиниться на сайт, перейти по конкретной ссылке и сохранить html? Нужно только headless, в консоле, без окон.
Selenium? Scrapy?
curl?
источник

AM

Artem Malyshev in rannts
Думаю надо чтобы js интерпретировало.
источник

SA

Sergey Arkhipov in rannts
В подавляющем большинстве случаев ничего интерпретировать не нужно)
источник

SA

Sergey Arkhipov in rannts
Короч, берите Скрапи
источник

SA

Sergey Arkhipov in rannts
Сколько раз эта тема всплывает, ответ не меняется)
источник

KK

Kirill (Cykooz) Kuzminykh in rannts
В простом случае хватит и requests, если не надо массово в 100 потоков сливать содержимое сайта
источник

SA

Sergey Arkhipov in rannts
Скрапи в использовании — простой, как тапок. Реквестс тоже хватит, но если придется делать обход сайта, то придётся делать много того, чего со Скрапи делать не придётся.

Паук на Скрапи — скорее про логику обхода и сериализации результатов, чем про 100 потоков
источник

SB

Sergey Belash in rannts
Kirill (Cykooz) Kuzminykh
В простом случае хватит и requests, если не надо массово в 100 потоков сливать содержимое сайта
Я первым делом попробовал requests, но ответ отличается от браузерного. Наверняка можно будет настроить, но хочется минимум ручной работы.
источник

KK

Kirill (Cykooz) Kuzminykh in rannts
А чего там настраивать? User-Agent только? Или там сайт с продвинутой защитой от скрапинга?
источник

KK

Kirill (Cykooz) Kuzminykh in rannts
Ты больше времени потратишь на изучение скраппи и его запуск
источник