Блог Яндекса для вебмастеров

Как найти и исправить возможные проблемы с сайтом - опубликована видеозапись вебинара

Пост в архиве.

Опубликована запись второго вебинара из серии «Поисковая оптимизация сайта: вопросы и ответы» — «Как найти и исправить возможные проблемы с сайтом».

Запись можно посмотреть на нашем канале

Следующий вебинар — «Работаем над рекомендациями для сайта» — пройдёт 15 июня, в 16:00 по московскому времени.

Его проведёт Елена Першина, маркетолог вебмастерских сервисов Яндекса. Принять участие в вебинаре могут только зарегистрировавшиеся пользователи.

Зарегистрироваться на вебинар
«Работаем над рекомендациями для сайта»

Ждём ваших вопросов к новому вебинару
Команда Яндекс.Поиска

92 комментария
Арсений Л.
9 июня 2017, 21:46
через 6 дней, а не завтра)
Елена Першина
Сотрудник Яндекса9 июня 2017, 22:51
Арсений Л.,
Ага :) 
Здравствуйте?
Как робот отреагирует на такое:
Имеются вкладки с тегом "section", в котором обязательно должен присутствовать тег "h" (в моём случае h2), причём h2 является ссылкой на сторонний ресурс (всего 3/5 тегов h2 подряд).


<section id="content1">
<h2 >
<a href="#">Заголовок1</a>
</h2>
</section>
<section id="content2">
<h2 >
<a href="#">Заголовок2</a>
</h2>
</section>
<section id="content3">
<h2 >
<a href="#">Заголовок3</a>
</h2>
</section>


- Не возникнут ли проблемы страниц с такой конструкцией?
Можно ли использовать ссылку внутри тега h?
3/5 тега h во вкладках подряд без текста между ними - это нормально?


Спасибо за вебинар!
Елена Першина
Сотрудник Яндекса19 июня 2017, 23:04
Mr. Edyan,
Не возникнет, можно, нормально! 
Спасибо за видео. Из него я узнал как можно доставить проблемы конкуренту. А именно: создать несколько сайтов, которые не жалко. На каждом из сайтов создать несколько сотен (тысяч) страниц. На каждой странице разместить несколько десятков (сотен) ссылок на сайт конкурента. Причём ссылки должны вести на несуществующие страницы. Адреса ссылок можно периодически менять. Робот Яндекса будет делать тысячи запросов в минуту на несуществующие страницы конкурента и сайт конкурента ляжет. И встанет не скоро. А когда встанет, можно поменять адреса на другие. И робот Яндекса будет бомбить по новой. Можно сделать так, чтобы сайт конкурента лежал долго, пока сотрудники Яндекса не вмешаются в ситуацию.


Как Яндекс борется с этим? Или таким образом можно загасить любой сайт и Яндекс ничего с этим не сможет поделать? Вы как-то анализируете экстремальные случаи обращения робота?
rmn.zhkv,
Вот как раз такая беда с моим сайтом! Посмотрите ниже - я описал ситуацию!
Наш сайт держится, т.к. недавно, как раз провели оптимизацию (а я всё думал, зря-не зря :) ).
Я переживаю не то, что ляжет, а то, что Яндекс / Гугл понизят позиции из-за этого.


P.S. Кстати, есть задержка между запросами для Яндекса, но тогда может не дойти очередь до нужных страниц :(.
Елена Першина
Сотрудник Яндекса11 июня 2017, 20:03
avmaksimov,
Нормальный ответ сервера и нормальный sitemap - и не стоит опасаться подобных проблем. Лучше радоваться, что конкуренты этим занимаются, вместо того, чтобы в свой сайт вкладываться и пытаться с вами нормально конкурировать. 
Елена Першина,
Спасибо за ответ и за то, что успокоили))
Значит, не зря так переживаю за всё).
Обновлено 13 июня 2017, 07:18
Елена Першина
Сотрудник Яндекса11 июня 2017, 20:02
rmn.zhkv,
Увы, так работать не будет, конечно же. И тут даже нам вмешиваться не нужно - наши политики обхода и правильный ответ по несуществующим страницам на стороне сайта - и проблемы нет. Но противно читать, что такие мысли приходят в голову. Лучше их направить на свой сайт - продуктивнее будет :)  
Елена Першина,
Хорошо, что такие мысли описываются здесь, а не используют тайно. Общими усилиями можно находить уязвимости в работе Яндекса и их устранять. Вам выгодно просить зрителей сообщать о найденных ими уязвимостях. Чем больше слабых мест будет найдено, тем безопаснее будет работа Яндекса.


Ещё одна идея появилась, когда прочитал ваш ответ. А что если плохой робот будет генерировать сотни тысяч ссылок на несуществующие страницы? Пока сервер даст код ответа, что такое страницы не существует, всё равно робот Яндекса сделает сотни тысяч запросов о том существуют ли такие страницы. Даже если ответом будет нет, робот обратится на сайт и если обращений будет много в единицу времени, на какое-то время сайт ляжет. Есть ли какие-то ограничения со стороны Яндекса о том какое максимальное количество ссылок он может просканировать на одном сайте за час?
Елена Першина
Сотрудник Яндекса13 июня 2017, 19:05
rmn.zhkv,
У нас есть умные политики обхода, которые озвучивать я тут не буду, чтобы у вас еще не появилось гениальных идей :) . Но от описываемых вами уловок они защищают достаточно неплохо - и не только от них. 
То есть, для страниц пагинации можно ставить canonical на первую? При этом все материалы, что находятся дальше этой самой первой страницы всё равно будут с таким же успехом проиндексированы? (ну точнее те, куда ведут ссылки со второй, третьей и тд страниц...)

Спасибо.
Kak_B_Cka3ke,
То, что ссылки будут проиндексированы - хорошо. А будет ли проиндексирован текст на 2-й и последующих страницах? Там ведь может быть много низкочастотных слов, которые добавят трафика.
Елена Першина
Сотрудник Яндекса11 июня 2017, 20:19
rmn.zhkv,
Вы про страницы пагинации? Обычно там небольшие выдержки из карточек товаров, так что бояться того, что какие-то слова потеряются - не нужно. Проиндексируются на самой карточке. А в качестве посадочной вторую страницу пагинации использовать странно.
Эх.. снова про сайт https://mtg-biz.ru . Смотрите, у меня почему-то резко появилось куча страниц с 404-ошибками. Ваш сервис показывает какие-то псевдорандомные страницы со всякими собаками (/@inbamn7/recent-replies/@inbamn7/recent-replies, /@krossiki24/@krossiki24 и т.д.). Это всё указывает на главную страницу и подразделы.
Почему это может быть? Может, конкуренты пытаются "утопить"?


Ваш основной конкурент (не будем вспоминать в суе :) ) показывает источник (правда, не всегда). Может быть, это сбой ПО или кто-то из сотрудников что-то не так делает (что маловероятно). Хотелось бы инструмент на будущее.


Но основной вопрос: что сейчас делать?!
avmaksimov,
Но вы же поставили задержку. Робот должен обращаться к сайту реже и не будет ложить сайт своими обращениями. Минус - новые страницы, наверное, индексируются у вас плохо. Из-за этого их может быть трудно найти в Яндексе и Гугле. Как следствие, эффект от SEO небольшой.


Купить новый домен не пробовали? Текущий оставить на растерзание конкурентам. Пусть думают, что это всё ещё нужный вам сайт. Удалить оттуда телефон и контактную информацию. Создать новый, там разместить контакты, ассортимент. Первые несколько месяцев конкуренты могут не узнать.
rmn.zhkv,
а вы точно не конкурент?))) Такие советы даёте. Бежать от конкурентов и забыть про вложенные силы в ресурс с ТиЦ 170 (больше большинства конкурентов). А через 3 месяца, когда узнают, снова бежать?)))  Да и на время существования домена поисковики обращают внимание.


Я считаю, что т.к. мы ничего не нарушаем (по крайней мере, я этого не вижу в ВебМастере), то смотреть более верно со стороны поисковика. В конце концов, может это баг Яндекса))) Т.к. в Гугле таких обращений к несуществующим страницам нет (но может, появятся).
avmaksimov,
А может вас сайт на какой-нибудь CMS, которая автоматически (без вашего ведома) генерирует много ненужных страниц, которые не закрыты от индексирования? И робот обходит ненужные страницы. Вы закрыли от индексирования в robots ненужные страницы?
rmn.zhkv,
конечно. CMS Битрикс... Не должны были так лохануться) Да и тогда должны взяться откуда-то ссылки. На сайте не обнаружены, в sitemap тоже нет.
avmaksimov,
Вы закрыли в robots от индексирования разделы, куда обращался робот (за несуществующими страницами)? Вы прописали в sitemap приоритетные страницы для индексирования?
rmn.zhkv,
присмотрелся - последний заход 04.06. Если еще будет, то сделаю, как вы посоветовали - добавлю исключение с "собакой", но не все такие, хотя и большинство. 
По поводу sitemap - также спасибо за идею. Файлы генерятся CMS. Поэтому, нужен допил для приоритетов. Поэтому, пока оставлю, как есть. Буду рассматривать как запасной вариант.
Елена Першина
Сотрудник Яндекса11 июня 2017, 20:20
rmn.zhkv,
Ваш совет может скорее навредить, чем помочь, если честно. Дублировать контент, пытаться оба поддерживать в поиске - это очень странная рекомендация - и малопродуктивная. 
gamesandtraining
10 июня 2017, 12:22
Добрый день!
Подскажите, пожалуйста, есть ли возможность в robots.txt запретить url определенного формата? Дело в том, что на сайте сделал короткие ссылки состоящие из пяти БОЛЬШИХ букв (мой_сайт.ru/DAAWQ). С таких адресов идет перенаправление (301) на страницы с нормальными длинными адресами. Страниц на сайте много и запрещать каждый короткий адрес видимо будет не правильно. Буду премного благодарен, если подскажите как можно написать директиву запрещающую к индексированию именно страницы с такими адресами. Спасибо за помощь и за вашу работу по разъяснению очень важных вопросов!
Гела Стоун
10 июня 2017, 12:58
Добрый день, в семинаре говорится, что в директиве host, обязательно - указание протокола "http" или "https" , но директива представленная в инструкции https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
не содержит протокола? Наверное я не правильно понимаю. Заранее спасибо за ответ и спасибо за семинар!. 
Елена Першина
Сотрудник Яндекса11 июня 2017, 20:38
Гела Стоун,
Добрый день!
Да, указывать протокол нужно. Пример на этой странице Помощи старый, когда еще https был не особо актуален. В ближайшее время поправим. Пример оформления можно взять, например, из этой статьи (3 пункт): https://yandex.ru/blog/platon/2778  
На всякий случай уточню, что http можно и без протокола указывать - то есть пример в помощи тоже корректный, но для http. 
Обновлено 13 июня 2017, 14:13
Гела Стоун
11 июня 2017, 21:57
Елена Першина,
Спасибо за помощь!
Станислав Р.
10 июня 2017, 14:54
Можете взять для примера какой-нибудь среднестатистический интернет-магазин и выявить все его проблемы, которые мешают быть в топ-1 по всем запросам? Интересует больше, как вообще в вашем представлении можно выявить такие проблемы. Например, если сайт болтается на 40-50 позициях и никаких нарушений в Яндекс.Вебмастере нет.
Станислав Р.,
Чем торгует ваша компания?
Елена Першина
Сотрудник Яндекса13 июня 2017, 18:56
Станислав Р.,
Интересная мысль, хотя не очень понятно, как выбрать магазин для разбора.
Станислав Р.
13 июня 2017, 19:12
Елена Першина,
Ну вот, например, довольно-таки известный интернет-магазин https://www.enter.ru/catalog/appliances/holodilniki-i-morozilniki-1096 - по запросу "купить холодильник" в Москве находится на 41-м месте. Можете по косточкам разобрать, почему он не в топ-10 хотя бы?
Станислав Р.,
У меня на 3-й странице выдачи (по 15 на стр) по запросу "купить холодильник" появилась эта страница enter. Вы предлагаете Яндексу рассказать о том как манипулировать результатами выдачи? Они могут рассказать об ошибках (технических), которые есть на сайте и как их устранить (если они есть вообще). Но как попасть в топ-10 с помощью манипуляций ключевых слов - вряд ли.
Станислав Р.
15 июня 2017, 11:20
rmn.zhkv,
Я прошу именно рассказать об ошибках, которые есть на сайте.
Так получилось, что на сайте 5,3 миллиона исключенных неканонических ссылок. Их наделал фильтр. Я так понимаю, что это очень большая проблема, влияющая на выдачу. Как от этих ссылок быстро избавится?? Ошибку уже исправили. Спасибо за вебинар!
Обновлено 10 июня 2017, 19:33
datasvet.m,
Как от этих ссылок быстро избавится?? Помогите!!!
Елена Першина
Сотрудник Яндекса19 июня 2017, 18:58
datasvet.m,
Использовать запрет в robots.txt - тогда робот не будет их посещать.
В robots.txt мне программисты поставили Host: https://www.datasvet.ru/
В конце слэшь-  /
Это правильно?? 
datasvet.m,
если программист ставил значить правильно
Елена Першина
Сотрудник Яндекса19 июня 2017, 18:51
datasvet.m,
Это нормально, робот корректно обработает такую директиву.
Есть ли ограничения или рекомендованные Яндексом количество символов в titile и description?
Напр, SEO компании советуют title - не более 70 символов, description - не более 150 символов.
Спасибо!
Елена Першина
Сотрудник Яндекса19 июня 2017, 18:51
datasvet.m,
Нет, с нашей стороны строгих рекомендаций по количеству символов в тегах не предусмотрено.

https://kinoit.net/ Что может быть, не уходят страницы 301 редирект
Обновлено 10 июня 2017, 19:46
Елена Першина
Сотрудник Яндекса13 июня 2017, 19:00
nik.gaus,
А робот их после установки редиректа посещал? 
Виктория
11 июня 2017, 22:47
Доброго, в вебмастере страницы  карточки товара со статусом "Недостаточно качественная"  пример - https://deconica.ru/product/podvesnaya-lyustra-maytoni-bubble-dreams-mod603-06-n/ 
в вебмастере нет предупреждений, какие могут быть технические ошибки? по качеству страницы считаю нет проблем (есть описание фото видео и характеристики товара)

Обновлено 11 июня 2017, 22:47
Виктория,
Не нашёл у вас счётчика Яндекс.Метрики. Почему не пользуетесь?
Виктория
12 июня 2017, 11:31
rmn.zhkv,
Пользуемся! Установлен через Tag Manager. 
Виктория,
Не пользовался. Если я правильно понимаю, это контейнер для тегов. Кроме Метрики что вы в него поместили?
Виктория
14 июня 2017, 21:28
rmn.zhkv,
Аналитикс, и онлайн чат. Это никак не влияет на мой вопрос
Бесполезный вебинар №2, ждем ещё.
Александр Трудоношин
13 июня 2017, 12:31
Здравствуйте. Нужно ли делать запись  User-Agent отдельно  для Яндекса, или можно остаивить так User-Agent: *
Соловьев Алексей Юрьевич
13 июня 2017, 16:38
Александр Трудоношин,
Мне тоже очень интересно, у себя на сайте использую User-Agent: *
Елена Першина
Сотрудник Яндекса14 июня 2017, 17:43
Александр Трудоношин,
Можно User-Agent: *
Соловьев Алексей Юрьевич
13 июня 2017, 16:53
Здравствуйте.


Появился вопрос: Рассматривая свои файлы sitemap.xml обратил внимания на следующую запись - This sitemap was automatically generated by Webasyst framework according to apps settled on this website.
Learn more about sitemaps at sitemaps.org
Значит ли это, что робот может покинуть мои файлы sitemap.xml еще до начала их индексирования, ибо обе ссылки (выделены жирным) внешние?
Допустимы ли исходящие ссылки в файлах sitemap.xml?


Заранее благодарен за ответ, Алексей.
Елена Першина
Сотрудник Яндекса14 июня 2017, 17:47
Соловьев Алексей Юрьевич,
А почему вы решили, что они внешние. Вы смотрели документацию на инструмент генерации? Из описания, что вы даёте, похоже, следует только то, что у вас Sitemap генерируется автоматически. 
Комментарий удалён
Елена Першина
Сотрудник Яндекса14 июня 2017, 18:25
Соловьев Алексей Юрьевич,
То есть sitemap на том ресурсе, что и ваш сайт, вас просто смущают две ссылки на другие ресурсы - авторов плагинов? Если так, то это нормальная практика, тут беспокоиться не стоит. 
Соловьев Алексей Юрьевич
14 июня 2017, 18:31
Елена Першина,
Спасибо, Елена!
Владимир В
14 июня 2017, 12:44
Сайт ( магазин) переехал на другой движок, домен остался старый ему уже 17 лет. При "переезде" были сделаны 301 редиректы со всех категорий и подкатегорий, также сделаны редиректы по некоторым популярным товарам. В результате потеря трафика примерно в 3 раза с 1000-1400 показов до 300-500. Все страницы проиндексированы. Содержание переносилось со старого сайта +вносились улучшения. По идее сайт должен был восстановить позиции, но трафик так и не растет. Никаких ошибок и проблем яндекс вроде как не видит. Сайт http://garo.ru 
Заранее спасибо тем кто сможет ответить
Обновлено 14 июня 2017, 12:45
Станислав Р.
14 июня 2017, 14:22
Владимир В,
Так позиции восстановились или нет? Или просел только трафик? Возможно, проблема в длинной цепочке редиректов:
http://www.garo.ru/catalog/0A539A2249D68A8BC325783E002688DB/ -->
http://garo.ru/catalog/0A539A2249D68A8BC325783E002688DB/ -->
http://www.garo.ru/podemniki-avtomobilnie/ -->
http://garo.ru/podemniki-avtomobilnie/
Обновлено 14 июня 2017, 14:25
Владимир В
14 июня 2017, 16:59
Станислав Р.,
Позиции частично восстановились, по крайней мере по Санкт-Петербургу
Владимир В
14 июня 2017, 19:48
Станислав Р.,
Сезонность не может вызвать падение в три раза - никогда такого не было а тут явно идет с даты переезда http://prntscr.com/fjqy8j
Станислав Р.
14 июня 2017, 20:21
Владимир В,
Значит, частично сезонность и частично - не восстановившиеся позиции. Надо смотреть, какие именно запросы не восстановились. Может, у вас на этих посадочных страницах тайтлы кривые, например. Или тексты забыли добавить. Или просто мало времени прошло. Давно переезжали? Ещё же зависит от скорости переиндексации. Там, где позиции не восстановились, в выдаче старые урлы или новые? Если старые, можно попробовать ускорить переиндексацию через "Переобход URL" в вебмастере.
Елена Першина
Сотрудник Яндекса14 июня 2017, 18:08
Владимир В,
Редиректы на каком этапе ставили? 
Как тут написано или сразу: https://yandex.ru/blog/platon/2778
Если сразу, то не удивительно, что была просадка трафика. 
Владимир В
14 июня 2017, 19:43
Елена Першина,
Мне кажется по ссылке не совсем моя ситуация. Как бы я мог сделать редиректы позже если был сайт http://garo.ru и остался такой же, о каких зеркалах тут может идти речь, я же не могу оставить одновременно работать два сайта на одном домене и по одному и тому же протоколу
Елена Першина
Сотрудник Яндекса16 июня 2017, 12:45
Владимир В,
Да, вы правы. То есть у вас менялась структура сайта, но не домен? А посадочные по смыслу менялись, или только их адреса? 
Владимир В
19 июня 2017, 12:36
Елена Першина,
Да у меня и структура то особо не менялась, все категории остались прежними, изменились по сути только урлы. Но на новые были сделаны редиректы
добрый день, подскажите пожалуйста, как удалить дубли из сайта, что-то не очень сильно понимаю?
Елена Першина
Сотрудник Яндекса14 июня 2017, 18:23
artseoad,
У нас про это будет отдельный вебинар: https://academy.yandex.ru/events/webmasters/msk-2017/?talk=4680 
А если коротко, то в исключенных страницах есть страницы, помеченные как дубли. 
Елена Першина,
я дубли нашел, подскажите, как их правильно удалить
artseoad,
триста первым редиректом
Елена Першина
Сотрудник Яндекса16 июня 2017, 13:06
artseoad,
Зависит от того, чем дубли вызваны. Можете в поддержку нам написать, мы подскажем наилучшую техническую настройку именно для вашего типа дублей.
Антон Иванов
14 июня 2017, 20:19
Есть множество страниц, которые видят только пользователи, но не поисковики, например личная переписка  с другим пользователем /messages/32432423/ где цифры это id собеседника. По таким урлам незаргегистрированный пользователь видит страницу регистрации. Сейчас робот считает это за дубли. Что лучше сделать - прописать rel=canoical на страницу reg (регистрации) или же весь раздел   /messages/ закрыть от индексирования? И вообще можно ли скрывать разделы в роботс ткт если сайт на https?
Елена Першина
Сотрудник Яндекса16 июня 2017, 13:14
Антон Иванов,
Закрыть весь раздел в robots.txt - то, что нужно!
Сервер отвечает HTTP-кодом 404 (ожидается 200). Как это исправить? Подскажите пожалуйста.
Елена Першина
Сотрудник Яндекса16 июня 2017, 16:10
celebration237,
Если страница правда должна отвечать 200 (то есть там есть контент), то нужно смотреть и менять настройки сервера - это на вашей стороне, вашим админом или разработчиком делается. 
В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.
Проверьте файл robots.txt и устраните противоречия.
Люди как исправить ошибку? Сайт http://maksimmka.ru/  robots в браузере открывается. Помогите советом. 
Обновлено 16 июня 2017, 07:11
Станислав Р.
16 июня 2017, 10:35
Максим,
У вас в robots.txt пропущена буква в домене:
Host: maksmmka.ru


А надо - Host: maksimmka.ru
Станислав Р.,
Ой спасибо большое добрый человек! ни за что бы не догадался((( Спасиб огромное....!  Старость наверное не заметил закорючку)))) а я голову ломаю))
Обновлено 16 июня 2017, 18:24
Здравствуйте!
На сайт идёт много рекламы с УТМ-метками. Как будет правильней поступить:
Указать в robots.txt Clean-param
Закрыть в Disallow
Использовать rel-cannonical


Будут ли при этом накапливаться статистические данные страницы?
Елена Першина
Сотрудник Яндекса17 июня 2017, 19:50
sergey.akkuzin,
Использовать Clean-param, показатели с таких страниц будут учитываться.
Здравствуйте Елена подскажите, а можно посмотреть вебинар "Работаем над рекомендациями для сайта" в записи - не успел на премьеру 
Елена Першина
Сотрудник Яндекса19 июня 2017, 22:57
mr.shura9,
Да, конечно, опубликуем в ближайшее время на нашем канале: https://www.youtube.com/channel/UCWWfIyhjfJHdH1Kvx5p9gyg 
Артём Тарасов
21 июня 2017, 13:55
Хорошо что речь пошла о sitemap, как скоро яндекс научится расспознавать карту с картинками?


Product
https://site.ru/123/


Image URL
https://site.ru/456.jpg


Image Title - Текст

Image Caption - Текст



Но в место этого пишет:
Неизвестный тег image:image






Обновлено 21 июня 2017, 13:57
Елена Першина
Сотрудник Яндекса21 июня 2017, 15:51
Артём Тарасов,
Вы можете просто игнорировать этот момент. 
Артём Тарасов,
Я решил проблему с картинками вставив в functions.php Вот этот код:


// Уберем из карты сайта URL картинок
add_filter( 'wpseo_xml_sitemap_img_src', 'remove_image_url' );
function remove_image_url( $uri ) {
return '';
}
Спортмаркет
5 июля 2017, 21:45
Что за совет на страницы пагинации ставить каноникал, ведь при этом страницы исключаются из индексации и робот их не обходит, а на этих страницах ссылки на карточки товаров (речь о каталоге магазина). В чем смысл?
Елена Першина
Сотрудник Яндекса21 июля 2017, 13:57
Спортмаркет,
В вебинаре про это хорошо рассказано. 1. Робот их обходит. 2. Робот обходит и карточки товаров. 3. Смысл в предотвращении дублирования и конкуренции страниц пагинации между собой. 
Спортмаркет
21 июля 2017, 14:08
Елена Першина,
Как он их обходит, когда в вебмастере стоят записи, что страница исключена по причине тэга каноникал.
Здравствуйте .



Благодарю за вебинар.



Подскажите пожалуйста по сайту http://pixelfly.ru

Установлена последняя версия Yoast и с его помощью создан sitemap



У меня в файлах sitemap в общей сложности 25 предупреждений такого рода "Неизвестный тег image:image (25 предупреждений)".  



Это критично? и что с ними делать?
Елена Першина
Сотрудник Яндекса13 сентября 2017, 18:15
Владимир С.,
Предупреждения для картинок можно игнорировать. 
firstlena.pershina, здравствуйте! Скажите, пожалуйста, а почему в заголовке "туда и обратно"? Что это означает, скачки позиций сайта при диагностировании? Накладывается ли "Баден-Баден" на информационные сайты (отдельные страницы) или же это прерогатива торговой бизнес-сферы?
Спасибо.
Елена Першина
Сотрудник Яндекса13 декабря 2017, 22:26
Александр,
Это про то, как вернуться из Бадена.