02.10.2020
  2 Replies
  1.3K Visits
Сильно расширили меню на сайте (плотность по отдельному слову возросла с 15 до 50 повторений), потом обнаружили ещё и дубль меню (адаптивная его версия). Большая часть страниц по основным запросам вылетела из топ100.
Как выходить из-под фильтров Переспама или переоптимизации?
около 1 года назад
·
#359
Для выхода из-под переоптимизации нужно сразу удалить все проблемные повторения ключевых слов, чтобы плотность вернулась на прежний уровень

Так как просадка произошла именно после расширения меню, то делать A/B тесты не нужно, лучше как можно скорее избавиться от спама

Дублирование меню в адаптивной версии само по себе не является причиной для наложения санкций. Без переспама оно не навредит
около 1 года назад
·
#360
Для того, чтобы бот увидел изменения как можно раньше — отправляйте страницы на переобход в Вебмастере. Если с краулинговым бюджетом у сайта проблемы, то можете написать в техподдержку или внедрить один из советов siteclinic.

  • Увеличить скорость сайта. Ускорение загрузки сайта, как правило, приводит к тому, что робот Google начинает сканировать больше URL. Что вполне логично. Если раньше бот тратил 5 секунд на одну страницу, а вы уменьшили это время до одной – краулинговый бюджет изменится обратно пропорционально
  • Улучшить внутреннюю перелинковку
  • Уменьшить глубину сайта. Отчасти задача тоже связана с перелинковкой. Чтобы бот чаще краулил страницу, она должна быть доступна в 2–4 клика от главной. Чем глубже находится страница, тем реже её обходит бот
  • Убрать «сиротские страницы». Сиротские страницы — это страницы, на которые нет внутренних или внешних ссылок. Случается, что страницу создали, а ссылку на неё поставить – забыли. Следовательно, как боту узнать о существовании документа? Удаляем мусорные страницы (дубликаты, документы низкого качества)
  • Запретить действия, которые не может выполнить робот Googlebot. С помощью robots.txt можно запретить сканирование страниц входа, контактных форм, корзин покупок и других страниц, единственная функциональность которых не может быть выполнена сканером
  • Избавиться от бесконечной пагинации. Представим ситуацию: есть страница категории «Каталог одежды для девочек». Она разбита на 1234 страницы пагинации. Но если перейти на 1235 или 3179 – получим ответ сервера 200 ОК. Хоть товара на таких страницах и нет. Бесконечная пагинация вредит краулинговому бюджету. При обходе бот тратит свои ресурсы на обход бесполезных страниц без товара. Как исправить: настройте автоматический редирект с несуществующих страниц пагинации на последнюю.
  • Удалить идентификатор сессии из URL
  • Уменьшить количество страниц, которые отдают 4xx и 5xx ответы сервера
  • Уменьшить количество ссылок с редиректами
  • Привести в порядок XML-Sitemap
  • Закрыть ссылки rel=»nofollow»
  • Настроить HTTP-кеширование

Обычно нужно подождать 2-3 апдейта для восстановления позиций

Причиной просадки может быть не только переспам, но и само увеличение меню при малом количестве другого контента — тогда страницы могут стать неявными дублями. Решить эту проблему можно либо сократив меню, либо добавив больше контента на страницу
  • Страница :
  • 1
На это сообщение еще не было создано никаких ответов.
Будьте первым, кто ответит на него.
Ваш ответ
Загрузите файлы или изображения для данного обсуждения, нажав на кнопку Загрузить. Поддерживает до gif,jpg,png,jpeg,zip,rar,pdf
· Инстаграм · Удалить
  Upload Files (Maximum 2MB)
Капча
Прежде чем Ваш вопрос будет опубликован, для защиты нашего веб-сайта от роботов и неавторизованных скриптов мы требуем, чтобы Вы ввели ниже код кептчи.