Справочник по ошибкам анализа robots.txt
Ошибки анализа файла robots.txt
Перечень ошибок, которые могут возникнуть при анализе файла robots.txt.
|
Ошибка |
Расширение Яндекса |
Описание |
||
|
Правило начинается не с символа / и не с символа * |
Да |
Правило может начинаться только с символа Убедитесь, что каждое правило Пример❌ ✅ |
||
|
Найдено несколько правил вида User-agent: * |
Нет |
Допускается только одно правило Объедините все правила для всех роботов в один блок с Если нужны специфичные правила для конкретных роботов, укажите их отдельными блоками до или после общего блока. Пример
|
||
|
Превышен допустимый размер |
Да |
Количество правил в файле превышает 2048. Оптимизируйте правила, объединяя похожие директивы. Используйте маски Проверьте, можно ли закрыть целые разделы сайта одним правилом вместо перечисления отдельных страниц. Если нужно закрыть много страниц, используйте метатег |
||
|
Перед правилом нет директивы User-agent. |
Нет |
Правило должно всегда следовать за директивой Убедитесь, что каждый блок правил начинается с директивы Удалите лишние пустые строки между Пример
|
||
|
Слишком длинное правило |
Да |
Правило превышает допустимую длину — 1024 символа. Разбейте длинное правило на несколько коротких. Используйте маски Если правило содержит длинный URL с параметрами, рассмотрите использование директивы ПримерБыло: Стало: |
||
|
Некорректный формат URL файла Sitemap |
Да |
В качестве URL файла Укажите полный URL с протоколом ( Пример❌ ✅ |
||
|
Некорректный формат директивы Clean-param |
Да |
Нарушен синтаксис директивы Используйте правильный формат: ПримерРоботы должны игнорировать параметры ❌ ✅ Подробно см. Директива Clean-param. |
||
|
Возможно, был использован недопустимый символ |
Да |
В правилах Удалите или замените недопустимые спецсимволы. Пример правильного использования
|
||
|
Обнаружена неизвестная директива |
Да |
Обнаружена директива, не описанная в правилах использования robots.txt. Возможно, эта директива используется роботами других поисковых систем. Проверьте правильность написания директивы (возможна опечатка). Убедитесь, что используете только поддерживаемые Яндексом директивы. |
||
|
Синтаксическая ошибка |
Да |
Строка не может быть интерпретирована как директива Проверьте правильность написания директив (регистр не важен, но должно быть корректное название). Убедитесь, что используется правильный разделитель — двоеточие Удалите лишние символы, пробелы в начале строки или некорректные переносы строк. Пример❌ ✅ |
||
|
Неизвестная ошибка |
Да |
При анализе файла возникла неизвестная ошибка. Обратитесь в службу поддержки. Проверьте кодировку файла — должна быть UTF-8. Убедитесь, что файл находится в корневом каталоге сайта (доступен по адресу Проверьте, что сервер возвращает корректный HTTP-статус (200 OK). Если ошибка повторяется, обратитесь в службу поддержки с указанием домена и скриншотом ошибки. |
Ошибки проверки URL
Перечень ошибок проверки URL в инструменте Анализ robots.txt.
|
Ошибка |
Описание и как исправить |
|
Синтаксическая ошибка |
Ошибка синтаксиса URL. Проверьте правильность написания URL. |
|
Этот URL не принадлежит вашему домену |
Заданный URL не принадлежит сайту, для которого производится анализ файла. Убедитесь, что указываете URL именно того сайта, который добавлен в Яндекс Вебмастер. Например, указан верный протокол Проверьте, что используете главный адрес сайта и правильно написали домен (возможна опечатка). |
Как избежать ошибок в файле robots.txt
-
Проверяйте файл после каждого изменения — используйте инструмент Анализ robots.txt в Яндекс Вебмастере.
-
Используйте простые правила — чем проще структура файла, тем меньше вероятность ошибки.
-
Тестируйте на конкретных URL — в инструменте Анализ robots.txt можно проверить, как правила применяются к конкретным страницам.
-
Следите за размером файла — если правил становится слишком много, пересмотрите стратегию управления индексацией.
-
Документируйте изменения — добавляйте комментарии (строки, начинающиеся с
#) для пояснения сложных правил.
Подробно см. Использование файла robots.txt.