Ну давай, соскрапь 10 страниц выдачи по запросу "скраппинг гугла". Приключение на 20 минут, ага, ага.
Вручную как раз 20 минут на то чтобы покопировать 100+ ссылок и получится, лол.
Хотя я подозреваю что можно оптимизировать скорость если через инструменты разработчика копировать конечную-текущую структуру страницы - набрать таких штук 10 страниц, а потом уже их, беззащитные, не пытающиеся защититься через капчу, подвергнуть pyquery.