Не торопитесь. Если на уровне meta вы выставили noindex, follow, а в robots.txt не закрыли архивы для сканирования - всё в порядке. Гугл может деиндексировать URL месяцами и годами, так что есть смысл просто подождать.
Дополнительно - я бы проверил наличие ссылок и трафика на те разделы, которые вы пытаетесь деиндексировать. Это серьёзные сигналы, которые говорят Гуглу, что URL важны. В этом случае он может решить не деиндексировать их, и повлиять на это почти невозможно.
Web разработчик и SEO специалист. Автор блога https://web-revenue.ru/ · 26 дек 2021 · web-revenue.ru
Переключатель на против пункта "Метатеги robots архивов Рубрика" должен быть включен - иначе настройка ниже не играет роли. Посмотрите исходный код рубрики.
При правильной настройке должен быть:
<meta name="robots" content="follow, noindex"/>
Обычно в течении 2х недель гугл выкидывает из выдачи эти страницы. Для ускорения можно скормите sitemap.xml ему еще раз Читать далее
Разрабатываю и продвигаю сайты 🚀. Держу руку на пульсе web технологий и SEOПерейти на web-revenue.ru
Занимаюсь созданием сайтов. Есть большой опыт работы с Wordpress. Знаю html, css, js... · 6 янв 2022
По всей видимости, где-то пропустили нужную опцию в настройках плагина. Потому что сейчас архивы открыты для индексации. Это видно в исходном коде.
К сожалению, никогда не пользовался SEO от Rank Math, поэтому ничего не могу посоветовать. Пожалуй только сменить плагин на Yoast SEO. С ним таких проблем не наблюдается. Читать далее
На Ваш вопрос уже дали несколько ответов, но хочу дополнить. Тогда, возможно, Вы найдете другое решение, а не исключение категорий из поиска.
Насколько вижу, Вы используете оператор "site" в поиске. Понятно, что по иерархии, которая заложена в Вордпресс, категории важнее, чем записи, и Гугл поступает логично, показывая категории (рубрики) выше всего остального. Вот... Читать далее
Попробуйте закрыть нужные разделы через файл robots.txt и плагин использовать не надо. Это позволит и нагрузку на сайт снизить. Ну и собственно боты Google будут считывать его в первую очередь
План действий:
1. Открываете FTP редактор
2. Прописывайте в robots.txt конструкцию которая представлена ниже, вместо "/" указывайте ссылки на те архивы, которые надо закрыть... Читать далее