2021-11-23 11:01:02
Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!
Подскажите, как лучше закрыть от индексации все страницы с параметрами для избежания дублей (у меня все страницы с ЧПУ)?
Disallow: /?
или clean-param или canonical
В отличие от большинства seo-вопросов, тут есть решение, которое позволит удовлетворить оба поисковика.
Что нам говорит Яндекс:
«Иногда для закрытия таких страниц используется директива Disallow. Рекомендуем использовать Clean-param, так как эта директива позволяет передавать основному URL или сайту некоторые накопленные показатели.»
Самое главное тут не в самой рекомендации, а в причине: передача показателей страниц. То есть оно работает так, как должен работать canonical, который в Яндексе работает очень плохо и, например, сортировки и пагинации в итоге не склеиваются.
Если же просто закрыть страницы с параметрами от индексации при помощи Disallow: /
? или meta robots=”noindex”, то «накопленные показатели» основной странице не передадутся.
Что нам говорит Google:
«Google не рекомендует блокировать поисковым роботам доступ к повторяющемуся контенту с помощью файла robots.txt или иными способами. Лучше всего разрешить сканирование этих URL, но при этом пометить их как точные копии с помощью ссылки rel="canonical" или инструмента обработки параметров URL.»
В Гугле никакого клинпарама не существует, зато canonical работает как положено! Фактически, вы получите результат, аналогичный описанному для Яндекса выше, если будете использовать canonical.
Кстати, в Гугле вообще лучше избегать использования robots.txt, так как он хоть и не сканирует такие страницы, но регулярно добавляет в индекс (с пометкой, что индексирование запрещено),
Выводы: Как вы уже догадались, чтобы все было хорошо, надо одновременно использовать директиву Clean-param: в robots.txt для Яндекса и rel="canonical" для Google.
Кроме этого, если технически затруднительно настроить каноникалы, для Гугла можно использовать инструмент «Параметры URL», где вы можете указать параметры и как их следует обрабатывать (указываем те же, какие будем писать в clean-param).
Директива Clean-param: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Страницы с идентичным контентом: https://developers.google.com/search/docs/advanced/guidelines/duplicate-content?hl=ru
Параметры URL: https://www.google.com/webmasters/tools/crawl-url-parameters
PS Видели, вчера интерфейс Google Search Console обновился? Я лично скучаю по старому интерфейсу (он еще остался в некоторых инструментах, например, если перейдете в «Параметры URL» по ссылке выше, то увидите его).
Вы можете задавать мне вопросы в комментариях или лично @VictimAlex#вашивопросы
1.1K views08:01