Блог Яндекса для вебмастеров

Как найти и исправить возможные проблемы с сайтом - опубликована видеозапись вебинара

9 июня, 21:09

Опубликована запись второго вебинара из серии «Поисковая оптимизация сайта: вопросы и ответы» — «Как найти и исправить возможные проблемы с сайтом».

Запись можно посмотреть на нашем канале

Следующий вебинар — «Работаем над рекомендациями для сайта» — пройдёт 15 июня, в 16:00 по московскому времени.

Его проведёт Елена Першина, маркетолог вебмастерских сервисов Яндекса. Принять участие в вебинаре могут только зарегистрировавшиеся пользователи.

Зарегистрироваться на вебинар
«Работаем над рекомендациями для сайта»

Ждём ваших вопросов к новому вебинару
Команда Яндекс.Поиска

91 комментарий
Подписаться на комментарии к посту
через 6 дней, а не завтра)
firstlena.pershina
Сотрудник Яндекса9 июня, 22:51
funcolors,
Ага :) 
Здравствуйте?
Как робот отреагирует на такое:
Имеются вкладки с тегом "section", в котором обязательно должен присутствовать тег "h" (в моём случае h2), причём h2 является ссылкой на сторонний ресурс (всего 3/5 тегов h2 подряд).


<section id="content1">
<h2 >
<a href="#">Заголовок1</a>
</h2>
</section>
<section id="content2">
<h2 >
<a href="#">Заголовок2</a>
</h2>
</section>
<section id="content3">
<h2 >
<a href="#">Заголовок3</a>
</h2>
</section>


- Не возникнут ли проблемы страниц с такой конструкцией?
Можно ли использовать ссылку внутри тега h?
3/5 тега h во вкладках подряд без текста между ними - это нормально?


Спасибо за вебинар!
firstlena.pershina
Сотрудник Яндекса19 июня, 23:04
Mr. Edyan,
Не возникнет, можно, нормально! 
Спасибо за видео. Из него я узнал как можно доставить проблемы конкуренту. А именно: создать несколько сайтов, которые не жалко. На каждом из сайтов создать несколько сотен (тысяч) страниц. На каждой странице разместить несколько десятков (сотен) ссылок на сайт конкурента. Причём ссылки должны вести на несуществующие страницы. Адреса ссылок можно периодически менять. Робот Яндекса будет делать тысячи запросов в минуту на несуществующие страницы конкурента и сайт конкурента ляжет. И встанет не скоро. А когда встанет, можно поменять адреса на другие. И робот Яндекса будет бомбить по новой. Можно сделать так, чтобы сайт конкурента лежал долго, пока сотрудники Яндекса не вмешаются в ситуацию.


Как Яндекс борется с этим? Или таким образом можно загасить любой сайт и Яндекс ничего с этим не сможет поделать? Вы как-то анализируете экстремальные случаи обращения робота?
rmn.zhkv,
Вот как раз такая беда с моим сайтом! Посмотрите ниже - я описал ситуацию!
Наш сайт держится, т.к. недавно, как раз провели оптимизацию (а я всё думал, зря-не зря :) ).
Я переживаю не то, что ляжет, а то, что Яндекс / Гугл понизят позиции из-за этого.


P.S. Кстати, есть задержка между запросами для Яндекса, но тогда может не дойти очередь до нужных страниц :(.
firstlena.pershina
Сотрудник Яндекса11 июня, 20:03
avmaksimov,
Нормальный ответ сервера и нормальный sitemap - и не стоит опасаться подобных проблем. Лучше радоваться, что конкуренты этим занимаются, вместо того, чтобы в свой сайт вкладываться и пытаться с вами нормально конкурировать. 
firstlena.pershina,
Спасибо за ответ и за то, что успокоили))
Значит, не зря так переживаю за всё).
Обновлено 13 июня, 07:18
firstlena.pershina
Сотрудник Яндекса11 июня, 20:02
rmn.zhkv,
Увы, так работать не будет, конечно же. И тут даже нам вмешиваться не нужно - наши политики обхода и правильный ответ по несуществующим страницам на стороне сайта - и проблемы нет. Но противно читать, что такие мысли приходят в голову. Лучше их направить на свой сайт - продуктивнее будет :)  
firstlena.pershina,
Хорошо, что такие мысли описываются здесь, а не используют тайно. Общими усилиями можно находить уязвимости в работе Яндекса и их устранять. Вам выгодно просить зрителей сообщать о найденных ими уязвимостях. Чем больше слабых мест будет найдено, тем безопаснее будет работа Яндекса.


Ещё одна идея появилась, когда прочитал ваш ответ. А что если плохой робот будет генерировать сотни тысяч ссылок на несуществующие страницы? Пока сервер даст код ответа, что такое страницы не существует, всё равно робот Яндекса сделает сотни тысяч запросов о том существуют ли такие страницы. Даже если ответом будет нет, робот обратится на сайт и если обращений будет много в единицу времени, на какое-то время сайт ляжет. Есть ли какие-то ограничения со стороны Яндекса о том какое максимальное количество ссылок он может просканировать на одном сайте за час?
firstlena.pershina
Сотрудник Яндекса13 июня, 19:05
rmn.zhkv,
У нас есть умные политики обхода, которые озвучивать я тут не буду, чтобы у вас еще не появилось гениальных идей :) . Но от описываемых вами уловок они защищают достаточно неплохо - и не только от них. 
kakbctapoucka3ke2012
10 июня, 04:24
То есть, для страниц пагинации можно ставить canonical на первую? При этом все материалы, что находятся дальше этой самой первой страницы всё равно будут с таким же успехом проиндексированы? (ну точнее те, куда ведут ссылки со второй, третьей и тд страниц...)

Спасибо.
kakbctapoucka3ke2012,
То, что ссылки будут проиндексированы - хорошо. А будет ли проиндексирован текст на 2-й и последующих страницах? Там ведь может быть много низкочастотных слов, которые добавят трафика.
firstlena.pershina
Сотрудник Яндекса11 июня, 20:19
rmn.zhkv,
Вы про страницы пагинации? Обычно там небольшие выдержки из карточек товаров, так что бояться того, что какие-то слова потеряются - не нужно. Проиндексируются на самой карточке. А в качестве посадочной вторую страницу пагинации использовать странно.
Эх.. снова про сайт https://mtg-biz.ru . Смотрите, у меня почему-то резко появилось куча страниц с 404-ошибками. Ваш сервис показывает какие-то псевдорандомные страницы со всякими собаками (/@inbamn7/recent-replies/@inbamn7/recent-replies, /@krossiki24/@krossiki24 и т.д.). Это всё указывает на главную страницу и подразделы.
Почему это может быть? Может, конкуренты пытаются "утопить"?


Ваш основной конкурент (не будем вспоминать в суе :) ) показывает источник (правда, не всегда). Может быть, это сбой ПО или кто-то из сотрудников что-то не так делает (что маловероятно). Хотелось бы инструмент на будущее.


Но основной вопрос: что сейчас делать?!
avmaksimov,
Но вы же поставили задержку. Робот должен обращаться к сайту реже и не будет ложить сайт своими обращениями. Минус - новые страницы, наверное, индексируются у вас плохо. Из-за этого их может быть трудно найти в Яндексе и Гугле. Как следствие, эффект от SEO небольшой.


Купить новый домен не пробовали? Текущий оставить на растерзание конкурентам. Пусть думают, что это всё ещё нужный вам сайт. Удалить оттуда телефон и контактную информацию. Создать новый, там разместить контакты, ассортимент. Первые несколько месяцев конкуренты могут не узнать.
rmn.zhkv,
а вы точно не конкурент?))) Такие советы даёте. Бежать от конкурентов и забыть про вложенные силы в ресурс с ТиЦ 170 (больше большинства конкурентов). А через 3 месяца, когда узнают, снова бежать?)))  Да и на время существования домена поисковики обращают внимание.


Я считаю, что т.к. мы ничего не нарушаем (по крайней мере, я этого не вижу в ВебМастере), то смотреть более верно со стороны поисковика. В конце концов, может это баг Яндекса))) Т.к. в Гугле таких обращений к несуществующим страницам нет (но может, появятся).
avmaksimov,
А может вас сайт на какой-нибудь CMS, которая автоматически (без вашего ведома) генерирует много ненужных страниц, которые не закрыты от индексирования? И робот обходит ненужные страницы. Вы закрыли от индексирования в robots ненужные страницы?
rmn.zhkv,
конечно. CMS Битрикс... Не должны были так лохануться) Да и тогда должны взяться откуда-то ссылки. На сайте не обнаружены, в sitemap тоже нет.
avmaksimov,
Вы закрыли в robots от индексирования разделы, куда обращался робот (за несуществующими страницами)? Вы прописали в sitemap приоритетные страницы для индексирования?
rmn.zhkv,
присмотрелся - последний заход 04.06. Если еще будет, то сделаю, как вы посоветовали - добавлю исключение с "собакой", но не все такие, хотя и большинство. 
По поводу sitemap - также спасибо за идею. Файлы генерятся CMS. Поэтому, нужен допил для приоритетов. Поэтому, пока оставлю, как есть. Буду рассматривать как запасной вариант.
firstlena.pershina
Сотрудник Яндекса11 июня, 20:20
rmn.zhkv,
Ваш совет может скорее навредить, чем помочь, если честно. Дублировать контент, пытаться оба поддерживать в поиске - это очень странная рекомендация - и малопродуктивная. 
gamesandtraining
10 июня, 12:22
Добрый день!
Подскажите, пожалуйста, есть ли возможность в robots.txt запретить url определенного формата? Дело в том, что на сайте сделал короткие ссылки состоящие из пяти БОЛЬШИХ букв (мой_сайт.ru/DAAWQ). С таких адресов идет перенаправление (301) на страницы с нормальными длинными адресами. Страниц на сайте много и запрещать каждый короткий адрес видимо будет не правильно. Буду премного благодарен, если подскажите как можно написать директиву запрещающую к индексированию именно страницы с такими адресами. Спасибо за помощь и за вашу работу по разъяснению очень важных вопросов!
Добрый день, в семинаре говорится, что в директиве host, обязательно - указание протокола "http" или "https" , но директива представленная в инструкции https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
не содержит протокола? Наверное я не правильно понимаю. Заранее спасибо за ответ и спасибо за семинар!. 
firstlena.pershina
Сотрудник Яндекса13 июня, 14:13
gaya45,
Добрый день!
Да, указывать протокол нужно. Пример на этой странице Помощи старый, когда еще https был не особо актуален. В ближайшее время поправим. Пример оформления можно взять, например, из этой статьи (3 пункт): https://yandex.ru/blog/platon/2778  
На всякий случай уточню, что http можно и без протокола указывать - то есть пример в помощи тоже корректный, но для http. 
Обновлено 13 июня, 14:13
firstlena.pershina,
Спасибо за помощь!
Можете взять для примера какой-нибудь среднестатистический интернет-магазин и выявить все его проблемы, которые мешают быть в топ-1 по всем запросам? Интересует больше, как вообще в вашем представлении можно выявить такие проблемы. Например, если сайт болтается на 40-50 позициях и никаких нарушений в Яндекс.Вебмастере нет.
ingref,
Чем торгует ваша компания?
firstlena.pershina
Сотрудник Яндекса13 июня, 18:56
ingref,
Интересная мысль, хотя не очень понятно, как выбрать магазин для разбора.
firstlena.pershina,
Ну вот, например, довольно-таки известный интернет-магазин https://www.enter.ru/catalog/appliances/holodilniki-i-morozilniki-1096 - по запросу "купить холодильник" в Москве находится на 41-м месте. Можете по косточкам разобрать, почему он не в топ-10 хотя бы?
ingref,
У меня на 3-й странице выдачи (по 15 на стр) по запросу "купить холодильник" появилась эта страница enter. Вы предлагаете Яндексу рассказать о том как манипулировать результатами выдачи? Они могут рассказать об ошибках (технических), которые есть на сайте и как их устранить (если они есть вообще). Но как попасть в топ-10 с помощью манипуляций ключевых слов - вряд ли.
rmn.zhkv,
Я прошу именно рассказать об ошибках, которые есть на сайте.
Так получилось, что на сайте 5,3 миллиона исключенных неканонических ссылок. Их наделал фильтр. Я так понимаю, что это очень большая проблема, влияющая на выдачу. Как от этих ссылок быстро избавится?? Ошибку уже исправили. Спасибо за вебинар!
Обновлено 10 июня, 19:33
datasvet.m,
Как от этих ссылок быстро избавится?? Помогите!!!
firstlena.pershina
Сотрудник Яндекса19 июня, 18:58
datasvet.m,
Использовать запрет в robots.txt - тогда робот не будет их посещать.
В robots.txt мне программисты поставили Host: https://www.datasvet.ru/
В конце слэшь-  /
Это правильно?? 
datasvet.m,
если программист ставил значить правильно
firstlena.pershina
Сотрудник Яндекса19 июня, 18:51
datasvet.m,
Это нормально, робот корректно обработает такую директиву.
Есть ли ограничения или рекомендованные Яндексом количество символов в titile и description?
Напр, SEO компании советуют title - не более 70 символов, description - не более 150 символов.
Спасибо!
firstlena.pershina
Сотрудник Яндекса19 июня, 18:51
datasvet.m,
Нет, с нашей стороны строгих рекомендаций по количеству символов в тегах не предусмотрено.

https://kinoit.net/ Что может быть, не уходят страницы 301 редирект
Обновлено 10 июня, 19:46
firstlena.pershina
Сотрудник Яндекса13 июня, 19:00
nik.gaus,
А робот их после установки редиректа посещал? 
Доброго, в вебмастере страницы  карточки товара со статусом "Недостаточно качественная"  пример - https://deconica.ru/product/podvesnaya-lyustra-maytoni-bubble-dreams-mod603-06-n/ 
в вебмастере нет предупреждений, какие могут быть технические ошибки? по качеству страницы считаю нет проблем (есть описание фото видео и характеристики товара)

Обновлено 11 июня, 22:47
v9229042,
Не нашёл у вас счётчика Яндекс.Метрики. Почему не пользуетесь?
rmn.zhkv,
Пользуемся! Установлен через Tag Manager. 
v9229042,
Не пользовался. Если я правильно понимаю, это контейнер для тегов. Кроме Метрики что вы в него поместили?
rmn.zhkv,
Аналитикс, и онлайн чат. Это никак не влияет на мой вопрос
Бесполезный вебинар №2, ждем ещё.
trudonoshin1959
13 июня, 12:31
Здравствуйте. Нужно ли делать запись  User-Agent отдельно  для Яндекса, или можно остаивить так User-Agent: *
Соловьев Алексей Юрьевич
13 июня, 16:37
trudonoshin1959,
Мне тоже очень интересно, у себя на сайте использую User-Agent: *
firstlena.pershina
Сотрудник Яндекса14 июня, 17:43
trudonoshin1959,
Можно User-Agent: *
Соловьев Алексей Юрьевич
13 июня, 16:52
Здравствуйте.


Появился вопрос: Рассматривая свои файлы sitemap.xml обратил внимания на следующую запись - This sitemap was automatically generated by Webasyst framework according to apps settled on this website.
Learn more about sitemaps at sitemaps.org
Значит ли это, что робот может покинуть мои файлы sitemap.xml еще до начала их индексирования, ибо обе ссылки (выделены жирным) внешние?
Допустимы ли исходящие ссылки в файлах sitemap.xml?


Заранее благодарен за ответ, Алексей.
firstlena.pershina
Сотрудник Яндекса14 июня, 17:47
Соловьев Алексей Юрьевич,
А почему вы решили, что они внешние. Вы смотрели документацию на инструмент генерации? Из описания, что вы даёте, похоже, следует только то, что у вас Sitemap генерируется автоматически. 
Соловьев Алексей Юрьевич
14 июня, 18:13
firstlena.pershina,
Вот ссылка на мой файл sitemap.xml:
https://chukokkala.ru/sitemap.xml

я имел в виду эти ссылки:
This sitemap was automatically generated by Webasyst framework according to apps settled on this website. Learn more about sitemaps at sitemaps.org
Так как эти ссылки заключены в тег body (равно как и ссылки на страницы моего сайта в файле sitemap.xml) и ведут НЕ на страницы моего сайта у меня и возникает вопрос: не уходит ли робот встретив на своем пути ссылки на сторонний ресурс? Вот
firstlena.pershina
Сотрудник Яндекса14 июня, 18:25
Соловьев Алексей Юрьевич,
То есть sitemap на том ресурсе, что и ваш сайт, вас просто смущают две ссылки на другие ресурсы - авторов плагинов? Если так, то это нормальная практика, тут беспокоиться не стоит. 
Соловьев Алексей Юрьевич
14 июня, 18:29
firstlena.pershina,
Спасибо, Елена!
vladimir-vashnev
14 июня, 12:45
Сайт ( магазин) переехал на другой движок, домен остался старый ему уже 17 лет. При "переезде" были сделаны 301 редиректы со всех категорий и подкатегорий, также сделаны редиректы по некоторым популярным товарам. В результате потеря трафика примерно в 3 раза с 1000-1400 показов до 300-500. Все страницы проиндексированы. Содержание переносилось со старого сайта +вносились улучшения. По идее сайт должен был восстановить позиции, но трафик так и не растет. Никаких ошибок и проблем яндекс вроде как не видит. Сайт http://garo.ru 
Заранее спасибо тем кто сможет ответить
Обновлено 14 июня, 12:45
vladimir-vashnev,
Так позиции восстановились или нет? Или просел только трафик? Возможно, проблема в длинной цепочке редиректов:
http://www.garo.ru/catalog/0A539A2249D68A8BC325783E002688DB/ -->
http://garo.ru/catalog/0A539A2249D68A8BC325783E002688DB/ -->
http://www.garo.ru/podemniki-avtomobilnie/ -->
http://garo.ru/podemniki-avtomobilnie/
Обновлено 14 июня, 14:25
vladimir-vashnev
14 июня, 16:59
ingref,
Позиции частично восстановились, по крайней мере по Санкт-Петербургу
vladimir-vashnev
14 июня, 19:48
ingref,
Сезонность не может вызвать падение в три раза - никогда такого не было а тут явно идет с даты переезда http://prntscr.com/fjqy8j
vladimir-vashnev,
Значит, частично сезонность и частично - не восстановившиеся позиции. Надо смотреть, какие именно запросы не восстановились. Может, у вас на этих посадочных страницах тайтлы кривые, например. Или тексты забыли добавить. Или просто мало времени прошло. Давно переезжали? Ещё же зависит от скорости переиндексации. Там, где позиции не восстановились, в выдаче старые урлы или новые? Если старые, можно попробовать ускорить переиндексацию через "Переобход URL" в вебмастере.
firstlena.pershina
Сотрудник Яндекса14 июня, 18:08
vladimir-vashnev,
Редиректы на каком этапе ставили? 
Как тут написано или сразу: https://yandex.ru/blog/platon/2778
Если сразу, то не удивительно, что была просадка трафика. 
vladimir-vashnev
14 июня, 19:43
firstlena.pershina,
Мне кажется по ссылке не совсем моя ситуация. Как бы я мог сделать редиректы позже если был сайт http://garo.ru и остался такой же, о каких зеркалах тут может идти речь, я же не могу оставить одновременно работать два сайта на одном домене и по одному и тому же протоколу
firstlena.pershina
Сотрудник Яндекса16 июня, 12:45
vladimir-vashnev,
Да, вы правы. То есть у вас менялась структура сайта, но не домен? А посадочные по смыслу менялись, или только их адреса? 
vladimir-vashnev
19 июня, 12:36
firstlena.pershina,
Да у меня и структура то особо не менялась, все категории остались прежними, изменились по сути только урлы. Но на новые были сделаны редиректы
добрый день, подскажите пожалуйста, как удалить дубли из сайта, что-то не очень сильно понимаю?
firstlena.pershina
Сотрудник Яндекса14 июня, 18:23
artseoad,
У нас про это будет отдельный вебинар: https://academy.yandex.ru/events/webmasters/msk-2017/?talk=4680 
А если коротко, то в исключенных страницах есть страницы, помеченные как дубли. 
firstlena.pershina,
я дубли нашел, подскажите, как их правильно удалить
artseoad,
триста первым редиректом
firstlena.pershina
Сотрудник Яндекса16 июня, 13:06
artseoad,
Зависит от того, чем дубли вызваны. Можете в поддержку нам написать, мы подскажем наилучшую техническую настройку именно для вашего типа дублей.
Есть множество страниц, которые видят только пользователи, но не поисковики, например личная переписка  с другим пользователем /messages/32432423/ где цифры это id собеседника. По таким урлам незаргегистрированный пользователь видит страницу регистрации. Сейчас робот считает это за дубли. Что лучше сделать - прописать rel=canoical на страницу reg (регистрации) или же весь раздел   /messages/ закрыть от индексирования? И вообще можно ли скрывать разделы в роботс ткт если сайт на https?
firstlena.pershina
Сотрудник Яндекса16 июня, 13:14
ianton777,
Закрыть весь раздел в robots.txt - то, что нужно!
celebration237
15 июня, 23:39
Сервер отвечает HTTP-кодом 404 (ожидается 200). Как это исправить? Подскажите пожалуйста.
firstlena.pershina
Сотрудник Яндекса16 июня, 16:10
celebration237,
Если страница правда должна отвечать 200 (то есть там есть контент), то нужно смотреть и менять настройки сервера - это на вашей стороне, вашим админом или разработчиком делается. 
Maksimmka2012
16 июня, 07:11
В директиве Host указан домен, где аналогичные указания в файле robots.txt отсутствуют. Чтобы указания директивы Host были учтены, идентичные директивы должны присутствовать в файлах robots.txt всех зеркал сайта.
Проверьте файл robots.txt и устраните противоречия.
Люди как исправить ошибку? Сайт http://maksimmka.ru/  robots в браузере открывается. Помогите советом. 
Обновлено 16 июня, 07:11
Maksimmka2012,
У вас в robots.txt пропущена буква в домене:
Host: maksmmka.ru


А надо - Host: maksimmka.ru
Maksimmka2012
16 июня, 18:24
ingref,
Ой спасибо большое добрый человек! ни за что бы не догадался((( Спасиб огромное....!  Старость наверное не заметил закорючку)))) а я голову ломаю))
Обновлено 16 июня, 18:24
sergey.akkuzin
17 июня, 18:57
Здравствуйте!
На сайт идёт много рекламы с УТМ-метками. Как будет правильней поступить:
Указать в robots.txt Clean-param
Закрыть в Disallow
Использовать rel-cannonical


Будут ли при этом накапливаться статистические данные страницы?
firstlena.pershina
Сотрудник Яндекса17 июня, 19:50
sergey.akkuzin,
Использовать Clean-param, показатели с таких страниц будут учитываться.
Здравствуйте Елена подскажите, а можно посмотреть вебинар "Работаем над рекомендациями для сайта" в записи - не успел на премьеру 
firstlena.pershina
Сотрудник Яндекса19 июня, 22:57
mr.shura9,
Да, конечно, опубликуем в ближайшее время на нашем канале: https://www.youtube.com/channel/UCWWfIyhjfJHdH1Kvx5p9gyg 
Collimator.su
21 июня, 13:57
Хорошо что речь пошла о sitemap, как скоро яндекс научится расспознавать карту с картинками?


Product
https://site.ru/123/


Image URL
https://site.ru/456.jpg


Image Title - Текст

Image Caption - Текст



Но в место этого пишет:
Неизвестный тег image:image






Обновлено 21 июня, 13:57
firstlena.pershina
Сотрудник Яндекса21 июня, 15:51
Collimator.su,
Вы можете просто игнорировать этот момент. 
Collimator.su,
Я решил проблему с картинками вставив в functions.php Вот этот код:


// Уберем из карты сайта URL картинок
add_filter( 'wpseo_xml_sitemap_img_src', 'remove_image_url' );
function remove_image_url( $uri ) {
return '';
}
admin@sportmarket.su
5 июля, 21:46
Что за совет на страницы пагинации ставить каноникал, ведь при этом страницы исключаются из индексации и робот их не обходит, а на этих страницах ссылки на карточки товаров (речь о каталоге магазина). В чем смысл?
firstlena.pershina
Сотрудник Яндекса21 июля, 13:57
admin@sportmarket.su,
В вебинаре про это хорошо рассказано. 1. Робот их обходит. 2. Робот обходит и карточки товаров. 3. Смысл в предотвращении дублирования и конкуренции страниц пагинации между собой. 
admin@sportmarket.su
21 июля, 14:07
firstlena.pershina,
Как он их обходит, когда в вебмастере стоят записи, что страница исключена по причине тэга каноникал.
Здравствуйте .



Благодарю за вебинар.



Подскажите пожалуйста по сайту http://pixelfly.ru

Установлена последняя версия Yoast и с его помощью создан sitemap



У меня в файлах sitemap в общей сложности 25 предупреждений такого рода "Неизвестный тег image:image (25 предупреждений)".  



Это критично? и что с ними делать?
firstlena.pershina
Сотрудник Яндекса13 сентября, 18:15
optiq,
Предупреждения для картинок можно игнорировать.