Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Удалил некоторые страницы сайта, а они все равно показываются в поиске, как их убрать из поиска?

Так же закрыл эти страницы в Robots.txt и дополнительно добавил ссылки каждой страницы в список для удаления в Вебмастере.
ТехнологииПрограммирование+2
Иван Горшков
SEO
  · 65,8 K
Отвечает
Ника 5
  1. Закройте их в файле robots.txt. Этот файл находится в корне сайта. Строка закрытия должна выглядеть так: Disallow: /адрес страницы сайта/
важно вписать только последнюю часть адреса страницы
  1. Зайдите в Вебмастер Яндекса,
Да я это сделал и все равно показывается.
С 1998 года в сети. С 2008 официально. Работаю прожектором. Указываю направление, в...  · 24 мар 2022
Про robots.txt - запрет нужен. Без этого страница может снова быть проиндексирована, если она не отдаёт 404 ответ. Если отдаёт 404 - сама отвалится, просто наберитесь терпения. Переобход тут не всегда помогает, т.к. он не влияет напрямую на обновление выдачи. Робот обращает внимание на robots.txt, но для него это лишь приоритетный сигнал, не более того. Это приблизительн... Читать далее
Коллега, доброе утро. Про роботс соглашусь только в случае когда страница уже вывалилась из инлекса. Но если она... Читать дальше
SEO-Специалист, самоучка. 🏆 Всегда тестирую новое, чтобы становиться лучше для клиента...  · 16 мар 2022  · seo-personal.ru
Дополнительные меры, чтобы страница больше не попадала в выдачу: 1.Посмотрите были ли данные страницы в sitemap, если да, то удалите их от туда, чтобы не просить поисковых ботов постоянно обходить их 2.Закройте дополнительно страницы с помощью meta-тега robots  3.Если данные страницы вам не нужны, а они были сгенерированны CMS сайта, то я бы настроил 301-редирект. Но... Читать далее
30 минут бесплатной консультации по вопросам вашего сайтаПерейти на seo-personal.ru/seo-konsultacziya
Лучший
S͓̘̺̦E̸͕͈͉͎O̡͙: о̼̘̮̬̺́п͟т̵̞̯и̸м͉̘̺͙̲͟и͟з̻̝̥͚͉а͎̟̯͖̯̰ц͔͓͎͞и̶̲я͙̼̰ ͙̩̫͍и̤̩̻̼̩̠ ̖̻̳̗̳ͅп̧̬̩̻̪...  · 23 мар 2022  · clck.ru/3DLz6h
Отвечает
Витя
Какой robots.txt? Вы сами закрыли возможность поисковым роботам убедиться в том, что эти страницы не существуют. 1. Уберите все disallow на них из роботс 2. Убедитесь, что они отдают или 404 или в ноиндекс 3. Инструмент Удаление страниц Я.Вебмастер. Из гугла сами отвалятся быстро 4. Удалите упоминания о них из сайтмапов и убедитесь, что сам сайт на них не ссылается 5... Читать далее
3 эксперта согласны
Только вместо 404 ответа, я бы сделал 410)
Руководитель в Socialit Service: IT аутсорсинг для малого и среднего бизнеса  · 16 мар 2022
Нужно подождать пока пройдет обновление на поисковиках. Это, как правило, занимает какое-то время. Иногда неделю, иногда больше. Принудительное удаление страниц в вебмастере ускорит дело, но это все равно не мгновенно.