Клуб о поиске Яндекса

Будут ли сортировки считаться дублями? (18+)!

porn-opirat.net
22 апреля 2014, 19:40

Добрый день, на моём сайте www.pornopirat.net (ТОЛЬКО 18+!) есть сортировки по видео, например по рейтингу\по просмотрам, есть как для главной, так и для категорий, подскажите правильно ли я сделал что убрал страницы с пользовательской сортировкой (например http://www.pornopirat.net/most-popular/week/ - топ видео за неделю)  от индексации? (robots.txt) Или индексация этих страниц (на них могут быть на 100% одинаковые видео в разном порядке  в случае если в категории нет большого количества видео) никак не повредит в развитии сайта?

Еще один вопрос по сортировкам:

страница /categories/  - индексируется, но есть сортировка на странице /categories/?sort_by=avg_videos_rating - надо ли страницы с GET параметрами также скрывать от индексации или алгоритмы поиска Яндекс не будут считать эти страницы разными (может есть зависимость от title, h1?).

 

Спасибо за внимание!

 

4 комментария
Подписаться на комментарии к посту
firstlena.pershina
28 апреля 2014, 14:45
Если контент сайтов будет идентичным, то они наверняка склеятся в группу зеркал, после чего в поиске останется только главное зеркало. О том, какие сайты считабются зеркалами, написано в Помощи http://help.yandex.ru/webmaster/yandex-indexing/site-mirrors.xml. Если нужно, чтобы региональные поддомены могли индексироваться и участвовать в результатах поиска, их содержимое должно существенно различаться. Про региональность у нас написано здесь http://help.yandex.ru/webmaster/recommendations/regionality.xml

Спасибо, но сайт то один, т.е. на нём присутствуют разные страницы (сортировка), где контент (ссылки на ролики) может быть одинаковый.

firstlena.pershina
12 мая 2014, 18:19
1. В данном случае, если контент на страницах будет отличаться, страницы не будут считаться дублирующими и смогут участвовать в поиске. В подобных ситуациях мы советуем для страниц сортировки и пагинации использовать атрибут rel="canonical" тега  с указанием адреса канонической страницы (например, без параметров сортировки), что предотвратит дублирование контента в поисковой выдаче. Более подробную информацию об использовании rel="canonical" Вы также можете прочитать на следующей странице нашей Помощи: http://help.yandex.ru/webmaster/controlling-robot/html.xml#canonical .
Но хочу добавить, что использование запретов в robots.txt также оправдано (в соответствии с этим робот будет обращаться только к нужным Вам страницам).

2. Аналогичный принцип и в данном случае с GET-параметрами, для них также можно использовать атрибут rel="canonical" с указанием канонических страниц вида /categories/ .
porn-opirat.net
20 мая 2014, 03:28

Спасибо за развёрнутый ответ!