коллеги, есть вариант закрыть от индексации гугла страницы со 100% гарантией (ну кроме 404)? упорно обходит robots.txt, в консоли показывает, что проиндексировано не смотря на роботс. Проставлять на каждой странице meta robots нет технической возможности. Уже и вручную исключал - все равно лезет и сканирует бот.
Речь о страницах блога типа /tag/2019/ и другие по темам. Т.е. чисто для фильтра используемые, но много лет они индексировались хотя никакой смысловой нагрузки не несут и не содержат уникального контента.
Изолируйте эти страниц от сайта так, чтобы не было инлинкс на них. Проверить где есть ссылки можно при помощи screaming frog.