Блог Яндекса для вебмастеров

декабрь 2007
Поехали!
21 декабря 2007, 13:10

Два месяца назад мы запустили в режиме тестирования  сервис Яндекс.Вебмастер  и сегодня открываем его для всех желающих. Мы надеемся, что сервис будет местом диалога Яндекса со всеми, кто создает и улучшает сайты. Веб-мастера получат больше информации о поведении поискового робота на сайте, смогут исправить ошибки -- отчего и поиск Яндекса станет лучше. Поэтому мы планируем постоянно развивать сервис, в том числе реализовать те пожелания, которые вы уже успели высказать.

К открытию Яндекс.Вебмастер оброс новой функциональностью:

  • просмотр внешних и внутренних ссылок на страницы сайта,
  • список страниц сайта, которые могут находиться в поиске,
  • информация о ссылках, ведущих на ошибочные страницы,
  • анализ корректности robots.txt.


Мы будем рады отзывам и предложениям по улучшению сервиса, пишите через  форму обратной связи .

Поехали!


Александр Садовский, машущий рукой.

14 комментариев
Я.Вебмастер
Что случилось 20 декабря?
21 декабря 2007, 20:36
Мы обновили алгоритм ранжирования поиска Яндекса. В интервью "Ведомостям" Аркадий Волож упоминал о запуске новой поисковой платформы, которая позволит внедрить многие наработки в качестве поиска.

Первым изменением стало улучшение поиска по запросам, имеющим "витальные" ответы, то есть запрос однозначно подразумевает нахождение какого-то сайта. Например, по запросу [студия Лебедева] большинство пользователей ищут www.artlebedev.ru, и т.д.

20 декабря мы начали учитывать много новых факторов, характеризующих страницу, ссылки на страницу, сайт в целом; лучше понимать тип запроса. Алгоритм стал более придирчиво относиться к качеству ссылок на страницу, научившись различать некоторые виды ссылочных накруток. Надеемся, что по многим запросам пользователи заметят улучшения.

Команда поиска Яндекса
43 комментария
Расширенный формат robots.txt
21 декабря 2007, 20:49
Файл robots.txt используется веб-мастерами, чтобы объяснить роботу поисковой системы, какие страницы и разделы сайта нельзя индексировать, а какие можно. Стандарт предусматривает небольшой набор директив, поэтому написание правил индексации для крупных сайтов является сложной задачей. Мы решили упростить эту работу и с сегодняшнего дня поддерживаем в robots.txt директиву Allow, спецсимволы "*" и "$".

 В Помощи рассказано , как интерпретируются все директивы robots.txt, приведены примеры. Надеемся, что теперь найти общий язык с роботом Яндекса будет легче.


Александр Садовский, дрессировщик роботов
37 комментариев