Получи случайную криптовалюту за регистрацию!

Дежурный SEO-доктор

Логотип телеграм канала @siteclinic_doctor — Дежурный SEO-доктор Д
Логотип телеграм канала @siteclinic_doctor — Дежурный SEO-доктор
Адрес канала: @siteclinic_doctor
Категории: Маркетинг, PR, реклама
Язык: Русский
Страна: Украина
Количество подписчиков: 4.08K
Описание канала:

Официальный канал команды SiteClinic. Отвечаем на вопросы подписчиков по SEO бесплатно!
Задать вопрос можно здесь - @seodoctor_bot
По вопросам рекламы - http://bit.ly/2YIED9f
Заказать диагностику сайта - http://bit.ly/2OYmGU0

Рейтинги и Отзывы

3.33

3 отзыва

Оценить канал siteclinic_doctor и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

1

4 звезд

0

3 звезд

1

2 звезд

1

1 звезд

0


Последние сообщения 131

2021-04-08 10:07:42 Вопрос 1710

Как влияет наличие страниц с партнёрскими ссылками на ранжирование? Какой оптимальный % страниц с исходящими партнерскими ссылками на сайте? Сколько партнерских ссылок на странице можно ставить? Нужно ли прятать такие ссылки от Google и как это лучше сделать?

Вопрос принят.
605 viewsedited  07:07
Открыть/Комментировать
2021-04-08 10:07:15 Вопрос 1709

Сайт с кириллическим доменом, файлы сайтмапа поделены на 5 частей. Файл сайтмапа, в котором перечислены все части, добавляется в Гугл серч консоль, а сами части — не добавляются. Пишется "невозможно загрузить файл sitemap" и пустой отчёт об индексации. Вопрос: как скормить Гуглу части сайтмапа? Объединить их в один нельзя.

Время вышло. Вопрос набрал меньше лайков за 24 часа.
622 viewsedited  07:07
Открыть/Комментировать
2021-04-08 10:06:07 Вопрос 1711

Обновляем сайт на SPA, и чтобы облегчить сайт, будем на сервере определять устройство и показывать либо мобильный код либо десктопный. Но домен будет одинаковый. Вопрос: как ПС отнесутся к тому, что на одном домене будет две разные верстки, в зависимости от устройства?

Вопрос принят.
620 viewsedited  07:06
Открыть/Комментировать
2021-04-07 15:30:38 #Ответы на вопросы!

Вопрос 1696

Как сейчас лучше поступать со страницами пагинации в ИМ в плане того, что Вебмастер ругается на дубли тайтлов и дескрипшенов? Есть мысль во все тайтлы и дескпришены добавить "Страница 2", "Страница 3" и т.д. Как исправить ошибку и нужно ли уникализировать страницы пагинации?

Ответ

Мы всегда рекомендуем уникализировать страницы пагинации, добавляя на страницу начиная со второй «Страница X» для таких элементов, как:

title;
description;
h1.

Такой подход позволяет:

избежать риска возникновения дублей;
повышает количество страниц коммерческой направленности в индексе;
избежать проблем с индексацией товаров.

Для исправления ошибки в Вебмастере необходимо уникализировать и настроить страницы пагинации, после чего дождаться их переиндексации или запускать страницы на переобход вручную. Из актуальных способов настройки пагинации можно выделить следующие:

Настройка атрибута rel="canonical" для страниц, начиная со второй, как неканонических, а в качестве их канонического url указывать первую страницу листинга. По сути, этот способ соответствует рекомендациям от Яндекса.

Схематическое представление: http://joxi.ru/1A5ny5vUz0K4Wr

Настройка атрибута rel="canonical" для страниц, начиная с первой, на каждой из страниц на самих себя. Популярный метод настройки, который мы часто практикуем.

Схематическое представление: http://joxi.ru/LmGz8aGtg4RxJr

Оптимизация страниц пагинации под регионы, при котором прописываются не только атрибут rel="canonical" для страниц на самих себя, но и добавляются в title и description топонимы. Более экзотический способ, нацелен на попадание в выдачу сразу нескольких страниц. Видели как положительные результаты от его реализации, так и их отсутствие.

Схематическое представление: http://joxi.ru/Vm6Xv6lTRVDRDA

Более детально об этих и других методах оптимизации страниц пагинации, а также о преимуществах и недостатках каждого из них можно узнать из нашей статьи: «Как оптимизировать страницы пагинации на сайте».

Уникализируете ли Вы страницы пагинации? Делитесь мнением и опытом в комментариях!

via @siteclinic_doctor
655 views12:30
Открыть/Комментировать
2021-04-07 14:52:11 #Ответы на вопросы!

Вопрос 1694

Нужен ли last-Modified на сайте? Для каких поисковых систем он подходит? И есть ли информация о том, как Google обрабатывает last-Modified?

Ответ

При посещении сайта, на котором не настроен заголовок last-Modified, робот будет производить индексацию всех страниц интернет-ресурса снова и снова, создавая лишнюю нагрузку на сервер. К тому же робот будет тратить краулинговый бюджет и потенциально важные страницы могут долго индексироваться. При настройке last-Modified этой проблемы можно избежать, поэтому мы рекомендуем реализовать Last-Modified на страницах Вашего сайта.

Last-Modified подходит для поисковых систем Яндекс и Google.

Last-Modified помогает поисковым системам быстрее сканировать/индексировать новые страницы за счет распределения краулингово бюджета, но это при условии его правильной реализации.

Принцип работы Last-Modified

Если на странице не вносились изменения с момента предыдущего посещения ботом, сервер отдает 304 ответ. То есть бот понимает что контент не изменился и нет смысла в переобходе и переиндексации страницы. В результате бот не скачивает содержимое страниц, расходует квоту на реально изменившиеся страницы со времени предыдущей индексации. Либо индексирует новые страницы сайта.

У Вас на сайте настроен заголовок Last-Modified? Какие плюсы и минусы Вы можете выделить? Делитесь опытом в комментариях!

via @siteclinic_doctor
626 views11:52
Открыть/Комментировать
2021-04-07 10:02:26 Вопрос 1708

Есть сайт по продаже недвижимости с умным ЧПУ фильтром. Все страницы (их около 10 000) оптимизированы и имеют уникальный заголовок h1 и метатеги.

Встал вопрос о добавлении текста на фильтровые страницы. Писать на каждую уникальный текст — слишком трудозатратно, есть вариант написать шаблонный текст, меняя только характеристики фильтров. Разместить его или оставить страницы вообще без текста? Или как правильно провести эксперимент (без больших потерь в позициях и трафике)?

Вопрос принят.
640 viewsedited  07:02
Открыть/Комментировать
2021-04-07 10:02:26 Вопрос 1707

На какие страницы лучше ставить ссылки, если на сайте много однотипных страниц? Например, если сайт — это каталог компаний, т.е. есть пару тысяч компаний, их гуглят и читают информацию у меня на сайте. В таком случае нужно закупать ссылки только на главную?

Время вышло. Вопрос набрал меньше лайков за 24 часа.
646 viewsedited  07:02
Открыть/Комментировать
2021-04-07 10:02:25 Вопрос 1706

На сайте есть несколько страниц бесполезных с точки зрения продвижения, но с самым высоким пейджранком (это, конечно же, страницы "о нас", "команда", "контакты" и др. из меню). Хотели закрыть их в nofollow, но есть мнение, что вес просто утечет в никуда, а не перераспределится по другим страницам. Какие есть рабочие способы перераспределить ссылочный вес с этих бесполезных страниц?

Вопрос принят.
642 viewsedited  07:02
Открыть/Комментировать
2021-04-06 16:52:53 #Ответы на вопросы!

Вопрос 1693

Как исправить ошибку: "Проиндексировано, несмотря на блокировку в файле robots.txt" в GSC? Из-за чего она возникает? Насколько она критична?

Ответ

Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами.

Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].

Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.

Чтобы исправить ошибку, нужно выполнить следующие действия:

Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt
Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.

Вы сталкивались с такой ошибкой? Как исправляете её? Делитесь опытом в комментариях!

via @siteclinic_doctor
331 views13:52
Открыть/Комментировать
2021-04-06 14:53:31 #Ответы на вопросы!

Вопрос 1692

Как нужно закрывать и нужно ли закрывать от индексации страницы с параметрами сортировки ? Например: сайт.ру/категория?sort=reviews... И еще по висячим узлам: если закрыть страницы от индексации, например корзину, поиск, регистрацию, то стоит ли в ссылках на эти страницы прописать robots nofollow, чтобы им не передавался ссылочный вес? Или он сейчас не так важен?

Ответ

Страницы с параметрами сортировки дублируют содержание основной страницы и не несут в себе уникальной информации для пользователя, поэтому их необходимо закрывать от индексации. Аналогично должны быть закрыты от индексации и страницы корзины, поиска по сайту, регистрации и прочие, так как они не несут смысловой нагрузки для ПС.

Наш опыт показывает, что для закрытия страниц от индексации достаточно прописать соответствующую директиву файле robots.txt (в данном случае Disallow: */?sort=) и указать в атрибуте Canonical страниц сортировки ссылку на основную версию страницы.

Однако, если Ваша страница уже находится в индексе и вы хотите ее оттуда исключить, нужно использовать метатег robots. Для этого в разделе страницы прописываем . При этом, данная страница не должна быть закрыта в robots.txt (чтобы робот мог ее обнаружить и исключить).

Важно понимать, что сам факт наличия ссылки означает, что страница-донор теряет ссылочный вес. Атрибут nofollow означает лишь то, что поисковые роботы не будут переходить по ссылкам на странице-акцепторе и что она не получит ссылочный вес. Так как на висячих узлах нет исходящих ссылок и им не нужен ссылочный вес, на них можно использовать атрибут nofollow.

Подробнее о том, что ещё необходимо закрывать от индексации на сайте и как правильно это сделать читайте в нашей статье.

Закрываете ли Вы страницы сортировки от индексации? Делитесь мнением и опытом в комментариях!

via @siteclinic_doctor
424 views11:53
Открыть/Комментировать