Size: a a a

Техническое SEO

2020 May 09

AS

Andrew Semko in Техническое SEO
Anton
коллеги, есть вариант закрыть от индексации гугла страницы со 100% гарантией (ну кроме 404)? упорно обходит robots.txt, в консоли показывает, что проиндексировано не смотря на роботс. Проставлять на каждой странице meta robots нет технической возможности. Уже и вручную исключал - все равно лезет и сканирует бот.
Речь о страницах блога типа /tag/2019/ и другие по темам. Т.е. чисто для фильтра используемые, но много лет они индексировались хотя никакой смысловой нагрузки не несут и не содержат уникального контента.
Изолируйте эти страниц от сайта так, чтобы не было инлинкс на них. Проверить где есть ссылки можно при помощи screaming frog.
источник

ИГ

Игорь Гончаренко... in Техническое SEO
Может в параметрах попробуйте указать что бы не индексировал
источник

A

Anton in Техническое SEO
Andrew Semko
Изолируйте эти страниц от сайта так, чтобы не было инлинкс на них. Проверить где есть ссылки можно при помощи screaming frog.
нельзя. так реализована фильтрация по тегам в облаке тегов, т.е. в каждом блоге есть ссылки на тег, и после нажатия на него пипл видит список статей по этой теме
источник

A

Anton in Техническое SEO
Игорь Гончаренко
Может в параметрах попробуйте указать что бы не индексировал
в каких параметрах?
источник

ИГ

Игорь Гончаренко... in Техническое SEO
Gsc
источник

ID

Igor Dementiev in Техническое SEO
Евгений
О, у меня 5 мая не в ноль, но раза в 2 траф рубанулся по нескольким проектам. Я пока не сильно кипишую по этому поводу. Подожду ещё дня 2-3.
В какой тематики?
источник

ID

Igor Dementiev in Техническое SEO
Мне очень интересно ещё как работает алгоритм гугла который понимает какой контент является экспертным а какой нет. Принимая во внимание что всё в этом мире относительно.
источник

A

Anton in Техническое SEO
это где там? я через Removals исключал, но бесполезно
источник

A

Anton in Техническое SEO
источник

ИГ

Игорь Гончаренко... in Техническое SEO
источник

A

Anton in Техническое SEO
спасибо, погуглю как оно работает на исключение
источник

ID

Igor Dementiev in Техническое SEO
Tom
В любом случае если ты был на 1 месте, а стал на 3 то кто-то занял первое место. В этот апдейт скорей больше новых сайтов получили долю трафа, а не лишь горстка, поэтому разрыв не так заметен
Ну вам не кажется что выводы которые вы делаете преждевременные и выдачу гугла всегда "трясло" на +- позиции.
источник

T

Tom in Техническое SEO
Igor Dementiev
Ну вам не кажется что выводы которые вы делаете преждевременные и выдачу гугла всегда "трясло" на +- позиции.
Я ещё выводы никакие не делал, я просто написал постфактум как оно сейчас
источник

T

Tom in Техническое SEO
В серых
источник

ID

Igor Dementiev in Техническое SEO
Tom
В серых
Они волатильные от природы.
источник

T

Tom in Техническое SEO
Igor Dementiev
Они волатильные от природы.
Спасибо что сказали, не знал
источник

СЯ

Серж Ян in Техническое SEO
Игорь Гончаренко
Может в параметрах попробуйте указать что бы не индексировал
параметры - это настройка сканирования, не запрет на индекс. тот же роботс, только серверный.
источник

СЯ

Серж Ян in Техническое SEO
Anton
коллеги, есть вариант закрыть от индексации гугла страницы со 100% гарантией (ну кроме 404)? упорно обходит robots.txt, в консоли показывает, что проиндексировано не смотря на роботс. Проставлять на каждой странице meta robots нет технической возможности. Уже и вручную исключал - все равно лезет и сканирует бот.
Речь о страницах блога типа /tag/2019/ и другие по темам. Т.е. чисто для фильтра используемые, но много лет они индексировались хотя никакой смысловой нагрузки не несут и не содержат уникального контента.
настройте по ним ответ X-Robots-tag
источник

ИГ

Игорь Гончаренко... in Техническое SEO
Серж Ян
параметры - это настройка сканирования, не запрет на индекс. тот же роботс, только серверный.
если нет возможности проставить ноиндекс в хтмл или в хттп, то можно поставить запрет сканирование урлов в которых есть данный параметр...я как вариант предложил
источник

ИГ

Игорь Гончаренко... in Техническое SEO
Серж Ян
настройте по ним ответ X-Robots-tag
так нет же возможности проставить в ответах сервера ноиндекс
источник