Клуб о поиске Яндекса

"Предустановленные" Clean-param

philipj
25 ноября 2010, 10:34

Как известно, в Яндексовской версии robots.txt сущетсвует полезная фича - она называется Clean-param.

Т.е. можно в robots.txt для робота Яндекса указать параметры, которые Яндекс будет игнорировать (а не считать уникальными страницами с каждым меняющимся значением).

Однажды я смотрел, что проиндексировал Яндекс на одном сайте, и с удивлением обнаружил, что он запомнил много клонов страниц, которые были образованы при добавлении параметров типа utm_campaign и utm_medium (как известно, эти параметры используются в Хухль-паралитиксе, чтобы оценить эффективность рекламных кампаний).

Понятное дело, что этого можно избежать, сделав такую запись в robots.txt

User-agent: Yandex
...
...
Clean-param: utm_campaign&utm_medium&utm_source&utm_term


но не все про это знают.


Я вот думаю, может сделать так, чтобы Яндекс по умолчанию "склинивал" эти параметры - т.е. игнорировал?
Без специального указания в robots.txt ?

А еще я спросить хотел, если кто знает - поможет ли установка кода Яндекс Метрики на сайт, чтобы Яндекс
мог отследить и понимал посещаемость сайта, и это бы влияло в лучшую сторону на результаты выдачи?
Или лучше не стоит этого делать только для этих целей (или оно может повлиять и в худшую :)?

3 комментария
Подписаться на комментарии к посту
смотри кликабельность влияет на твой сайт, но если сайт не очень и имеет много отказов тебе только повредит, а автоматическая чистка этих параметров это глупость так как опрделить иногда будет невозможно где ссесионость а где реальное построение урла
сам не знал про эту команду - спасибо.

вот только на гугл она не подействует
>>Я вот думаю, может сделать так, чтобы Яндекс по умолчанию "склинивал" эти параметры - т.е. игнорировал?

Технически это сделать не сложно. Но всегда найдутся вебмастера, для которых данные параметры будут значимыми.