Вопрос-ответ

Вы можете задать мне приватные или общие вопросы по тематике сайта, все сообщения модерируются
  1. eAndy
  2. СЕО
  3. 02.10.2020
Сильно расширили меню на сайте (плотность по отдельному слову возросла с 15 до 50 повторений), потом обнаружили ещё и дубль меню (адаптивная его версия). Большая часть страниц по основным запросам вылетела из топ100.
Как выходить из-под фильтров Переспама или переоптимизации?
Комментарий
Никаких комментариев пока не создано.
Ответ принят Ждет модерации
Для выхода из-под переоптимизации нужно сразу удалить все проблемные повторения ключевых слов, чтобы плотность вернулась на прежний уровень

Так как просадка произошла именно после расширения меню, то делать A/B тесты не нужно, лучше как можно скорее избавиться от спама

Дублирование меню в адаптивной версии само по себе не является причиной для наложения санкций. Без переспама оно не навредит
Комментарий
Никаких комментариев пока не создано.
  1. 3 недель/ли назад
  2. СЕО
  3. # 1
Ответ принят Ждет модерации
Для того, чтобы бот увидел изменения как можно раньше — отправляйте страницы на переобход в Вебмастере. Если с краулинговым бюджетом у сайта проблемы, то можете написать в техподдержку или внедрить один из советов siteclinic.

  • Увеличить скорость сайта. Ускорение загрузки сайта, как правило, приводит к тому, что робот Google начинает сканировать больше URL. Что вполне логично. Если раньше бот тратил 5 секунд на одну страницу, а вы уменьшили это время до одной – краулинговый бюджет изменится обратно пропорционально
  • Улучшить внутреннюю перелинковку
  • Уменьшить глубину сайта. Отчасти задача тоже связана с перелинковкой. Чтобы бот чаще краулил страницу, она должна быть доступна в 2–4 клика от главной. Чем глубже находится страница, тем реже её обходит бот
  • Убрать «сиротские страницы». Сиротские страницы — это страницы, на которые нет внутренних или внешних ссылок. Случается, что страницу создали, а ссылку на неё поставить – забыли. Следовательно, как боту узнать о существовании документа? Удаляем мусорные страницы (дубликаты, документы низкого качества)
  • Запретить действия, которые не может выполнить робот Googlebot. С помощью robots.txt можно запретить сканирование страниц входа, контактных форм, корзин покупок и других страниц, единственная функциональность которых не может быть выполнена сканером
  • Избавиться от бесконечной пагинации. Представим ситуацию: есть страница категории «Каталог одежды для девочек». Она разбита на 1234 страницы пагинации. Но если перейти на 1235 или 3179 – получим ответ сервера 200 ОК. Хоть товара на таких страницах и нет. Бесконечная пагинация вредит краулинговому бюджету. При обходе бот тратит свои ресурсы на обход бесполезных страниц без товара. Как исправить: настройте автоматический редирект с несуществующих страниц пагинации на последнюю.
  • Удалить идентификатор сессии из URL
  • Уменьшить количество страниц, которые отдают 4xx и 5xx ответы сервера
  • Уменьшить количество ссылок с редиректами
  • Привести в порядок XML-Sitemap
  • Закрыть ссылки rel=»nofollow»
  • Настроить HTTP-кеширование

Обычно нужно подождать 2-3 апдейта для восстановления позиций

Причиной просадки может быть не только переспам, но и само увеличение меню при малом количестве другого контента — тогда страницы могут стать неявными дублями. Решить эту проблему можно либо сократив меню, либо добавив больше контента на страницу
Комментарий
Никаких комментариев пока не создано.
  1. 3 недель/ли назад
  2. СЕО
  3. # 2
  • Страница :
  • 1


На это сообщение еще не было создано никаких ответов.
Будьте первым, кто ответит на него.
Ваш ответ
Загрузите файлы или изображения для данного обсуждения, нажав на кнопку Загрузить. Поддерживает до gif,jpg,png,jpeg,zip,rar,pdf
• Инстаграм • Удалить Загрузка файлов (Максимальный размер файла: 2 MB)
Капча
Прежде чем Ваш вопрос будет опубликован, для защиты нашего веб-сайта от роботов и неавторизованных скриптов мы требуем, чтобы Вы ввели ниже код кептчи.