Блог Яндекса для вебмастеров

сентябрь 2011
Всё о вашей компании – в Яндекс.Справочнике
1 сентября 2011, 16:19

Теперь в Яндекс.Вебмастере остается возможность только просматривать список организаций, а для управления данными об организации интерфейс сервиса перенаправляет на соответствующую страницу Справочника организаций. Мы добавили в новый интерфейс ряд небольших полезных улучшений.

Ответы на часто задаваемые вопросы вы можете найти в Помощи

Недавно мы рассказали, как легко можно находить на Яндекс.Картах кафе, аптеки или рестораны, используя поиск с фильтрами.

Чтобы вас нашли в Яндексе, в том числе с помощью этих фильтров, вы можете разместить подробную информацию о своей компании в Яндекс.Справочнике — крупнейшем онлайн-каталоге организаций в рунете.

С недавних пор на сервисе размещаются не только адреса и телефоны организаций, но и любая информация, которая может быть интересна клиентам – например, время работы, наличие доставки, прием кредитных карт.  Так как почти для каждого типа бизнеса существует множество специфических характеристик, мы предусмотрели возможность указать их самостоятельно.

Раньше управление информацией об организации было доступно только вебмастерам, которые могли привязывать сайты к организациям. Теперь любая компания, даже если у нее нет сайта, может добавить информацию о своем кафе или салоне красоты, магазине или мастерской в личном кабинете Справочника. Там же можно указать и дополнительные параметры. На Картах люди могут искать по этим параметрам, в поиске — видеть их в сниппетах. 

Теперь особенным бизнесам и людям с особенными запросами станет проще находить друг друга. 

 

Подробнее о возможностях Яндекс.Карт для организаций мы рассказали в блоге рекламных технологий Яндекса.


Команда Яндекс.Справочника, ратуем за разнообразие

5 комментариев
содержимое сайта,Я.Вебмастер
Новое в поиске (август 2011)
8 сентября 2011, 12:50

 

Закончилось любимое лето, началась долгожданная осень. В последний летний месяц команда поиска продолжила трудиться и теперь делимся с вами итогами нашей работы.

Мы запустили новую поисковую платформу, которая получила название «Рейкьявик». Суть нововведения заключается в том, что пользователь теперь получает результаты поиска в соответствии со своими языковыми предпочтениями. Например, многим пользователям больше нравятся русскоязычные результаты, даже если их запросы написаны на латинице.

Традиционно обновили поисковые формулы: на этот раз в России и Беларуси.

Мы улучшили работу с опечатками, разработав новую формулу для запросов с ними. Теперь в некоторых случаях Яндекс показывает российским пользователям результаты одновременно по двум запросам – заданному, в котором предположительно есть опечатка, и исправленному.

Обновления коснулись и некоторых колдунщиков: математический колдунщик выучил еще 13 геометрических фигур; появился колдунщик онлайн игр.

Так же мы работали и над поисковыми подсказками: запросы о наиболее ярких новостях могут появляться в подсказках уже в течение часа после происшествия.

Теперь, чтобы вашу организацию нашли в Яндексе (в том числе с помощью новых фильтров на картах), вы можете разместить о себе информацию в Яндекс.Справочнике: любая компания, даже если у нее нет сайта, может добавить информацию о своем кафе или салоне красоты, магазине или мастерской в личном кабинете Справочника.

А так же в режиме альфа-тестирования мы начали работать с новым инструментом для помощи владельцам оригинальных текстов. Перед публикацией на своем сайте текста, который ранее не был размещен в интернете, предупредите Яндекс о скором его появлении. Для того, чтобы отправить заявку, воспользуйтесь сервисом Яндекс.Вебмастер.


Команда поиска

 

9 комментариев
новое в поиске
Тексты оптимизировались, переоптимизировались, но не выоптимизировались
13 сентября 2011, 10:26
В последнее время проблема переоптимизированных текстов особенно актуальна. Переоптимизированные тексты (которые по-английски можно назвать over-optimized texts или over-optimized content), или тексты с запросами, часто используются для оптимизации сайтов. Переоптимизированные тексты помогают поместить на сайт большое количество ключевиков (ключевых слов, целевых запросов), по которым сайт продвигается. Поэтому сейчас активно используется такая процедура как продвижение переоптимизированными текстами. Что такое продвижение переоптимизированными текстами, спросите вы. Если вы никогда раньше не пробовали продвижение переоптимизированными текстами, вы все равно наверняка знаете, что это такое. Ведь создать текст со словами из запросов несложно, нужно просто как можно чаще употреблять ваши ключевики в тексте. Бытует мнение, что продвижение текстами или текстовую оптимизацию (переоптимизацию) можно также использовать для повышения позиций вашего сайта в выдаче. Чтобы продвинуть свой сайт (страницу сайта, документ) по целевому запросу, попробуйте употребить слова запроса в тексте на странице сайта максимально возможное количество раз. Размещать переоптимизированные тексты на сайте можно по-разному: переоптимизированный текст на главной странице внизу наверняка не будет заметен пользователю. Продвижение переоптимизированными текстами, переоптимизированные тексты использование – не самая простая процедура, но в то же время и не самая сложная. Результаты продвижения текстами с ключевиками, однако, могут оказаться неожиданными.


Вам нравится читать на сайтах подобные тексты? Нет? Нам тоже не нравится.

Как мы уже писали, поиск Яндекса отдает предпочтение сайтам, которые созданы для людей и удобны пользователям, и негативно относится к попыткам повышения релевантности страниц за счет чрезмерного употребления в текстах ключевых слов (или целых популярных запросов). Размещение переоптимизированных текстов, которые не адресованы посетителям сайта, относится к приемам «псевдооптимизации» и никак не улучшает качество сайта. 

На следующей неделе  начнет работу новый поисковый алгоритм, влияющий на ранжирование страниц, содержащих чрезмерно оптимизированные тексты. Этот алгоритм анализирует контент на проиндексированных страницах и оценивает, является ли он полезным и удобным для посетителей сайта. Если алгоритм определит, что контент создан для влияния на поисковую систему и повышения релевантности, позиции этого документа в выдаче могут ухудшиться. Алгоритм проверяет все страницы, которые обходит робот, поэтому, когда проблема будет устранена, а страница сайта переиндексирована, позиции сайта восстановятся. Однако это займет некоторое время (до 2-3 недель).

Веб-мастерам, чьих сайтов могут коснуться действия этого алгоритма, мы рекомендуем заранее пересмотреть свой контент, отталкиваясь от интересов и удобства посетителей. Не забывайте, что короткие, но информативные тексты лучше воспринимаются пользователем, чем длинные и малосодержательные. Пишите логично и понятно – это придется по вкусу и вашим посетителям, и поисковым роботам.

Люди и роботы, любим читать и понимать

409 комментариев
пролетарский гнев
Тестируйте новую формулу ранжирования для московского региона
14 сентября 2011, 19:16
Мы подобрали новую формулу ранжирования и предлагаем ее протестировать на buki.yandex.ru. При подборе использовались новые оценки асессоров и новые факторы. Основные изменения в ранжировании касаются коммерческих сайтов московского региона. Будем рады увидеть ваши отзывы и замечания.

Команда поиска
57 комментариев
buki
Статистика CMS зараженных сайтов
19 сентября 2011, 12:35
Опубликована статистика по наиболее распространенным CMS и уязвимостям, позволяющим размещать на взломанных сайтах вредоносный код. В конце статьи даны рекомендации по защите CMS.

В настоящее время для управления структурой, контентом и дизайном сайтов часто применяются системы управления содержимым сайта – Content Management System (CMS). К CMS можно отнести:

  • универсальные системы для управления контентом;
  • интернет-магазины;
  • блоги, форумы, wiki;
  • фото- и видеогалереи, движки виджетов;
  • другие компоненты для управления содержимым сайта.


Такие системы позволяют вебмастерам упростить программирование, дизайн, поддержку сайта и даже поручать работу с сайтом людям, незнакомым с программированием и архитектурой Web.

В то же время, CMS, как и другие виды ПО, содержат уязвимости. В отличие от CMS собственной разработки, если злоумышленники находят уязвимости в одной конкретной тиражируемой CMS – возникает угроза взлома всех CMS этой версии. При этом, чем более распространённой является система и чем чаще она применяется на популярных сайтах,  тем больше усилий и денег злоумышленники инвестируют в поиск её уязвимостей.

Кроме того, большинство современных CMS состоят из множества модулей, и многие уязвимости связаны с плагинами, которые обычно написаны и протестированы на безопасность хуже, чем основной код системы.

Используя уязвимости CMS, злоумышленники стараются извлечь для себя выгоду за счёт чужих сайтов и посетителей. Например, на страницах сайта может быть размещён код, который заражает компьютеры посетителей вредоносными программами. Кроме того, на сайте со взломанной CMS могут без ведома вебмастера публиковать контент сомнительного содержания или  автоматически перенаправлять пользователей на другие ресурсы с таким контентом. В результате страдает репутация сайта, и количество посетителей сайта может существенно уменьшиться.


Общая статистика по CMS


По данным Яндекса, доли CMS на популярных российских сайтах, CMS которых удалось определить, выглядят следующим образом:



Видно, что 50% из топ-10000 заражённых сайтов используют систему DLE, а популярные сайты из топ-10000 либо отказались от неё, либо успешно её маскируют, чтобы избежать атаки. При этом они продолжают использовать WordPress и Joomla, которые тоже часто встречаются на заражённых сайтах.


WordPress





Из наших данных следует, что частота использования большинства версий CMS WordPress на обычных и на заражённых сайтах примерно одинакова. При этом чаще всего заражёнными являются сайты, использующие WordPress 3.2.1, 3.1.3 и 2.9.2, эти же версии широко распространены на незаражённых популярных сайтах. Вебмастерам таких  сайтов стоит соблюдать правила безопасности особенно тщательно, чтобы не допустить взлома и заражения.
Только за август и сентябрь 2011 опубликовано 57 новых уязвимостей WordPress, причём все они находятся в дополнительных компонентах. Уязвимости присутствуют в модулях wp-forum , wp-slimstat, wordpress automatic upgrade и других. С общим обзором уязвимостей WordPress можно ознакомиться здесь.


Joomla






Анализ показывает, что CMS Joomla версии 1.5 одинаково часто встречается как на обычных, так и на заражённых сайтах. Владельцам сайтов, использующих эту версию Joomla,  тоже рекомендуется уделять безопасности особое внимание. С начала года было опубликовано 38 новых уязвимостей в компонентах Joomla. В частности, об уязвимости в Joomla Datsogallery 1.3.1 можно прочитать на этой странице, а детальный список уязвимостей приводится здесь. Рекомендуем тщательно проверять на наличие уязвимостей модули  Joomla, которые используются для реализации форумов.


Рекомендации


Чтобы CMS вашего сайта не взломали, нужно соблюдать следующие правила:

  1. Регулярно обновляйте CMS.
  2. Скрывайте тип и версию установленной CMS и её плагинов, не указывайте их в коде страницы. Кроме того, нужно следить за тем, чтобы сайт нельзя было обнаружить с помощью специальных поисковых запросов-«дорков», которые злоумышленники используют для поиска уязвимых CMS.
  3. Не используйте контрафактные версии CMS – в некоторых случаях в них умышленно снижена степень безопасности или даже внедрены готовые backdoor’ы (пример – некоторые выпуски CMS DLE от M.I.D. с backdoor от Zloy).
  4. Проверяйте все без исключения данные, которые пользователь может ввести на страницах сайта или напрямую передать серверным скриптам при помощи запросов. Это может потребовать самостоятельной доработки модулей CMS. Например, такая доработка фильтрации входных данных позволяет снизить уязвимость DLE Shop. Для тестирования  этих проверок рекомендуем привлечь специалистов по тестированию на проникновение (penetration-тестированию).
  5. Использовать минимум сторонних скриптов, модулей, расширений. В самих пакетах CMS уязвимостей обычно немного, в основном они приходятся на дополнения, причём как сторонней разработки, так и официальные.
  6. Вебмастера и администраторы должны работать в безопасном окружении и выполнять правила безопасной работы в интернете (в частности, не сохранять пароли в браузере и FTP-клиенте, защищать рабочее место антивирусом и файрволлом).
  7. Перед тем, как устанавливать на веб-сервер какое-либо ПО, очень полезно узнать о его уязвимостях и способах их устранения с помощью The Open Source Vulnerability Database.


Надеемся, что эта информация позволит лучше защитить ваши ресурсы от уязвимостей и предотвратить их использование мошенниками.



Команда безопасного поиска Яндекса

Нет комментариев
безопасность,вирусы
Новые правила обработки директивы Allow файла robots.txt
27 сентября 2011, 11:45

Одним из методов управления поведения поисковым роботом на вашем сайте является текстовый файл robots.txt. В нем можно указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждой поисковой системы по отдельности.
Чтобы разрешить доступ робота к некоторым частям сайта или сайту целиком, используется директива 'Allow'.

Пример:

    User-agent: Yandex
    Allow: /catalog
    Disallow: /
    # запрещает скачивать все, кроме страниц
    # находящихся в '/catalog'


Сейчас для корректной обработки этой директивы ее необходимо использовать с учетом порядка: если для данной страницы сайта подходит несколько директив, то выбирается первая в порядке появления в выбранном User-agent блоке.

Примеры:

    User-agent: Yandex
    Allow: /catalog
    Disallow: /
    # запрещает скачивать все, кроме страниц
    # находящихся в '/catalog'
   
    User-agent: Yandex
    Disallow: /
    Allow: /catalog
    # запрещает скачивать весь сайт

Через несколько недель мы планируем внедрить изменение в обработке поисковым роботом директивы allow и отказаться от учета порядка. Директивы будут сортироваться по длине префикса URL’а (от меньшего к большему) и применяться последовательно. Такое изменение позволит нам соответствовать международным принципам применения директивы, чтобы и у российских, и у зарубежных вебмастеров не возникало трудностей при составлении файла robots.txt для разных поисковых систем.

Если на вашем сайте в robots.txt используются директивы allow и disallow, пожалуйста, проверьте их на соответствие новым стандартам.


Команда Поиска

28 комментариев
робот