Получи случайную криптовалюту за регистрацию!

Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или би | АлаичЪ про SEO, бизнес и …

Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!

Подскажите, как лучше закрыть от индексации все страницы с параметрами для избежания дублей (у меня все страницы с ЧПУ)?
Disallow: /
? или clean-param или canonical

В отличие от большинства seo-вопросов, тут есть решение, которое позволит удовлетворить оба поисковика.

Что нам говорит Яндекс:
«Иногда для закрытия таких страниц используется директива Disallow. Рекомендуем использовать Clean-param, так как эта директива позволяет передавать основному URL или сайту некоторые накопленные показатели.»

Самое главное тут не в самой рекомендации, а в причине: передача показателей страниц. То есть оно работает так, как должен работать canonical, который в Яндексе работает очень плохо и, например, сортировки и пагинации в итоге не склеиваются.
Если же просто закрыть страницы с параметрами от индексации при помощи Disallow: /? или meta robots=”noindex”, то «накопленные показатели» основной странице не передадутся.

Что нам говорит Google:
«Google не рекомендует блокировать поисковым роботам доступ к повторяющемуся контенту с помощью файла robots.txt или иными способами. Лучше всего разрешить сканирование этих URL, но при этом пометить их как точные копии с помощью ссылки rel="canonical" или инструмента обработки параметров URL.»

В Гугле никакого клинпарама не существует, зато canonical работает как положено! Фактически, вы получите результат, аналогичный описанному для Яндекса выше, если будете использовать canonical.

Кстати, в Гугле вообще лучше избегать использования robots.txt, так как он хоть и не сканирует такие страницы, но регулярно добавляет в индекс (с пометкой, что индексирование запрещено),

Выводы: Как вы уже догадались, чтобы все было хорошо, надо одновременно использовать директиву Clean-param: в robots.txt для Яндекса и rel="canonical" для Google.

Кроме этого, если технически затруднительно настроить каноникалы, для Гугла можно использовать инструмент «Параметры URL», где вы можете указать параметры и как их следует обрабатывать (указываем те же, какие будем писать в clean-param).

Директива Clean-param: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Страницы с идентичным контентом: https://developers.google.com/search/docs/advanced/guidelines/duplicate-content?hl=ru
Параметры URL: https://www.google.com/webmasters/tools/crawl-url-parameters

PS Видели, вчера интерфейс Google Search Console обновился? Я лично скучаю по старому интерфейсу (он еще остался в некоторых инструментах, например, если перейдете в «Параметры URL» по ссылке выше, то увидите его).

Вы можете задавать мне вопросы в комментариях или лично @VictimAlex

#вашивопросы