Получи случайную криптовалюту за регистрацию!

Oleg Salamaha

Логотип телеграм канала @gelo_seo — Oleg Salamaha O
Логотип телеграм канала @gelo_seo — Oleg Salamaha
Адрес канала: @gelo_seo
Категории: Маркетинг, PR, реклама
Язык: Русский
Количество подписчиков: 1.15K
Описание канала:

Актуальные материалы по SEO и интернет-маркетингу.
Автор канала: @GeLostd | founder serpstat.com

Рейтинги и Отзывы

5.00

2 отзыва

Оценить канал gelo_seo и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

2

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

0


Последние сообщения 4

2021-05-14 14:29:59 Что нужно сделать для внутренней оптимизации сайта. Обязательный список

Сегодня я решил собрать вам простой, но полезный чек-лист для самостоятельного аудита сайта. Всё это – обязательные действия перед запуском вашего продукта.

1. Карта сайта. В больших проектах без карт – никуда. Рекомендую настроить автообновляемую карту, куда будут записываться все новодобавленные URL.

2. Ошибка 404. Обращайте внимание на то, чтобы 404-я страница отдавала 404-й код, проиндексированные страницы не отвечали 404-й ошибке, а на всех типах страниц код был корректен.

3. Проверка robots.txt. Это осуществляется в панели GSC. Также вы можете проверить любую страницу на открытость или закрытость для роботов.

4. Зеркало сайта. У сайта должен быть только один адрес. Дублирование с «www» может плохо сказаться на основном домене.

5. Индексирование. Посмотрите на выдачу индексированных страниц в разных поисковиках. Если разница весомая, значит есть проблемы. Первым делом проверьте наличие важных страниц в индексе.

Пример: site:serpstat.com

6. Технические дубли. Чтобы устранить дублирование, нужно настроить 301 редирект и атрибут «rel=canonical» с дубля на целевой адрес и использовать метатег «robots= noindex,nofollow». После этого не забудьте закрыть дубль.

7. Сохраненная копия страницы. Проверьте видимость текста в сохраненной копии, навигационных ссылок и наличие каких-либо не показанных пользователю элементов.

8. Микроразметка. Важно посмотреть корректность разметки на всех страницах разного типа, ведь именно разметка «schema» дает подробную информацию о сайте, влияет на CTR.

9. Мобильная адаптация. Адаптация под «мобилку» – просто обязательна. Проверяйте все страницы вручную со смартфона, рекомендую даже использовать несколько операционных систем.

10. ЧПУ адресов. Урла больше 100 символов быть не должно, важно, чтобы не было подчеркиваний, кавычек и пробелов, а все символы только в нижнем регистре.

11. Цепочка редиректов. Чаще всего используют постоянное и временное перенаправления (301 и 302 редиректоры). О редиректах я писал здесь.

12. Скорость загрузки. Стремитесь к показателю в 200 мс. Для проверки используйте специальные инструменты (вот линк 1, линк 2, линк 3).

––––

Напишите в комментах, кто пользовался чек-листом и было ли это полезно. Может кто поделится другими версиями оптимизации?

@gelo_seo
383 views11:29
Открыть/Комментировать
2021-05-12 17:54:58 Как оценить работу SEO-специалиста и какие есть этапы

Качество выполненной работы часто определяет точность поставленного ТЗ. Согласны?
Отсюда два вопроса:

1. Как правильно поставить ТЗ?
2. Как измерять качество?

Начать стоит с того, что в начале работ SEO-специалиста над проектом, сам проект может быть на разных этапах его развития.

Я обычно определяю три основных этапа:

1. Сайт только запущен

На этом этапе перед SEO специалистом стоят такие задачи:
‒ Первичный аудит сайта на наличие технических ошибок и их исправление.
‒ Работа с сбором и кластеризацией семантики.
‒ Проработка структуры сайта.
‒ Регулярный мониторинг ошибок на сайте и их исправление.
‒ Оптимизация индексации страниц сайта.
‒ Проверка нагрузки, которую может выдержать сайт.
‒ Оптимизация страниц по основным факторам поисковых систем.
‒ Оптимизация скорости загрузки сайта.

Сайт можно добавить в аудит и мониторить его ошибки, а для контроля специалиста, в общем, смотреть количество ошибок до\ после работ, также важно обращать внимание на "критичность" ошибок.

В целом этот этап включает в себя общую подготовку и оптимизацию сайта для последующей работы с наращиванием ссылочного веса, выхода в топ и закрепления полученных позиций.
На этом этапе не стоит ждать трафика и продаж, так как в первую очередь сайт должен быть готов к тому чтобы он мог конкурировать с другими сайтами в выдаче поисковой системы.

2. Этап наращивание статического веса сайта

На этом этапе:
‒ Работа с созданием контента на сайт. ( семантика + тз на статьи как пример, оптимизация контента, другие типы страниц)
‒ Линк-билдинг.
‒ Мониторинг позиций, сравнение с конкурентами в выдаче.
‒ Распределение ссылочного веса, работа с перелинковкой.
‒ Регулярный аудит сайта на наличие ошибок и их исправление.

Вышеописанные задачи включают в себя множество этапов и очень вариативны, так как стратегия и подход будет отличаться в зависимости от проекта.
На этом этапе SEO специалист должен максимально проявить свои навыки, проработать стратегию и создать четкий "флоу" работы над проектом, и найти путь в "топ"
Также тут уже можно считать не только начатые и выполненные задачи, но трафик.

3. Стратегия и укрепление позиций

После выхода в топ 3 по основным ключам проекта, следует переходить к удержанию этих позиций. На этом этапе проект уже получает регулярный трафик, имеет ссылочный вес, его страницы быстро попадаю в индекс, можно четко выделить конкурентов в разрезе источника трафика.
Очень важный этап, к которому к сожалению добираються не многие, именно тут важно не сохранить и регулярно поддерживать получение результаты.

Важно смотреть как наш сайт ведет себя относительно конкурентов, обязательно мониторим позиции + смотри долю рынка относительно конкурентов, также регулярно оптимизируем страницы, ведем работу с контентом и ссылочным весом.

На этом этапе SEO маркетинг может больше внедряться в бизнес процессы, так расширяя продуктовую линейку например, можно получать новую семантику, позиции, трафик, продажи.
Или тестировать новые стратегии получения трафика, контент-маркетинга, добычи ссылок, оптимизации.

Все такими же стабильными метриками остаються:
1. Трафик на сайт
2. Качество трафика
3. Поставленные/выполнение задачи

———

Чтобы правильно поставить техническое задание SEO-специалисту, нужно:

‒ провести диагностику текущего состояния сайта.
‒ определить метрики и задачи, с которыми будем работать.
‒ замерить их значения перед началом работ.
‒ поставить цели – спрогнозировать оптимальные значения, которых можем достичь.

SEO-специалист поработал хорошо, если динамика позитивная, то есть:

‒ Целевой трафик растет.
‒ Сайт получает топ позиции и удерживает их.
‒ Стоимость посетителя падает.
‒ Прибыль по источнику organic > Затрат на SEO (включительно с рекламой).

Эффективность работы SEO-специалиста оцениваем по изменению контрольных метрик «до» и «после».

А еще, можно воспользоваться готовым списком задач для SEO аудита сайта.

@gelo_seo
472 viewsedited  14:54
Открыть/Комментировать
2021-04-06 18:27:42 Как бесплатно проверить производительность сайта

С самого начала стоит понимать разницу между производительностью и скоростью. Часто встречаю мнения, что эти два понятия относят у одному и тому же. Это не так. Производительность только отчасти зависит от скорости. Здесь также стоит знать и о других факторах: архитектура кода, рендеринг контента.

Проверка с помощью Performance

Google Chrome DevTools Performance — классный инструмент, который поможет разобраться с производительностью. Инструмент сложный, зато бесплатный (поэтому кто не хочет платить, погружайтесь в тему).

Как начать проверку

Для проверки доступны несколько опций — CPU и Network. Первая опция тормозит процессор, а вторая занижает скорость интернета. Здесь может возникнуть вопрос: для чего стоит всё замедлять? Именно на медленном соединении и частоте можно лучше увидеть проблемы сайта.

Анализируем сайт

1. Измеряем плавность отрисовки. Эта функция измеряется в количестве кадров в секунду. Оптимальное значение — 60 кадров за секунду. Если же есть проблемные места, то на графике отображается красная полоса.

2. Измеряем нагрузку на процессор. Этот параметр измеряет CPU. И если на графике имеются участки с максимальной нагрузкой, то это звоночек для оптимизации.

3. Скриншоты этапов загрузки. Самый лучший вариант, если сперва загружаются элементы первого экрана. Также можно увидеть проблемы в коде сайта.

————

Performance даёт возможность проверить любую страницу. Программа непростая, зато если разобраться, можно выявить много дефектов сайта. Удобно то, что инструмент находит конкретный проблемный участок в коде.

Пользовался ли кто Performance? Может кто-нибудь использует другие инструменты?

@gelo_seo
919 views15:27
Открыть/Комментировать
2021-03-31 17:58:10 Как защититься от парсинга и не потерять позиции в поисковой выдаче

Парсинг – автоматический сбор данных с различных ресурсов. В общих чертах это работает так: программа-бот обращается к странице целевого сайта, разбирает на части его HTML-код и забирает из него нужную информацию.

Чаще всего этот прием применяют конкуренты: если парсить одну и ту же группу сайтов, можно получать постоянно обновляемые данные о ценах, товарных запасах, изменениях в товарной группе. Также парсится и внутренняя часть сайта: семантика, элементы кода, метатеги и т.д.

Доступ ботам к сайту можно заблокировать. Но поисковые системы также являются своего рода парсерами – они отслеживают новую информацию и индексируют ее. Потому подобная блокировка может привести к потере позиций в поисковой выдаче.

4 способа защиты от парсинга без последствий для SEO

1. Добавление ссылки.
При копировании контента в тексте появляется ссылка на источник. Метод не защищает от кражи информации. Но если посмотреть обратные ссылки на свой сайт, можно увидеть, кто сделал копипаст. В теории копипастер ссылку может удалить, но часто ее просто не замечают.

2. Персонализированный контент. Чем чаще в тексте будет упоминаться бренд, название продукта и его уникальные характеристики, тем сложнее и дольше будет правиться копипаст. Если текст будет скопирован ботами, узнать копипастера можно будет с помощью Google Alerts, настроив его под уникальный запрос.

3. Ловушки для ботов – «honeypot». Приманки, представляющие собой ссылку, по которой не будут переходить пользователи, но будут переходить боты. Это позволяет собрать данные о методах сбора роботами информации, чтобы в дальнейшем их блокировать по определенным параметрам.

4. Использование сервисов DMCA protected, CloudFlare, Distil Networks.

Что НЕ нужно использовать для защиты:

1. Капча (captcha).
Запрос на ввод перенаправляется на сторонний ресурс, где капчу вбивают вручную, после чего запрос перенаправляется обратно. Для парсеров обход капчи не является проблемой, но раздражает пользователей и добавляет проблемы с индексацией.

2. Запрет на выделение текста или его копирование в буфер. Защищает контент только от ручного копирования, но не защищает от кражи контента из HTML-кода.

Важно! Все эти методы в большей степени направлены не столько на защиту контента, сколько на то, чтобы определить копипастера. Если кража контента зафиксирована, в первую очередь попробуйте договориться с ним об удалении контента напрямую. Это сэкономит деньги и время.

Не получилось – обратитесь к хостерам, а также в поддержку поисковых систем. На международном уровне можно воспользоваться законом DMCA, суть которого – защита авторского права в области цифровых технологий. Действует в США, но могут подать жалобу и нерезиденты.

@gelo_seo
1.1K views14:58
Открыть/Комментировать
2021-03-25 18:52:29 Мануал по EAT-факторам в Google

С 2018 года к сигналам асессоров прибавились EAT-факторы (“Expertise, Authoritativeness, Trustworthiness” или “Экспертность, Авторитетность, Доверие”).

Помимо YMYL-сайтов (финансы, новости, здоровье, безопасность и т.д.), EAT-факторы влияют на ресурсы, которые не относятся к данной тематике, но на них есть статьи на YMYL-темы. Поэтому важно понимать и своевременно адаптировать сайт под высокую оценку по EAT-факторам.

Вкратце расскажу об EAT:

Экспертность – Google предпочитает контент, написанный компетентными авторами в своей нише, и этот контент должен находиться на соответствующем тематике ресурсе.
Авторитетность – это репутация автора, контента и домена в целом.
Доверие – это надежность и безопасность сайта, а также достоверность контента

Как же получить высокую оценку по EAT-факторам?

Google говорит, что работа над EAT – постоянная долгосрочная задача, поэтому помимо компетентности, нужно запастись терпением. При этом, кое-что можно менять прямо сейчас. Вот пару рекомендаций.

1. Качественно проработайте раздел “О нас”

Полные сведения о компании (проекте, бренде и т.д) – это ключевой фактор получения высокой оценки от Google, поскольку правильно оформленный “О нас” отвечает всем критериям EAT. Можете посмотреть, как это сделали мы.

2. Старайтесь приобрести положительную репутацию

Очевидно, что положительная репутационная оценка основана на внешних сигналах – упоминания, ссылки на ваш ресурс, отзывы. В Serpstat реализовали это просто вынеся в отдельный раздел на сайте. Наращивайте ссылки и упоминания пропорционально своему росту и вы увеличите шанс на хорошую оценку.

3. Демонстрируйте заслуги и достижения

Это могут быть награды или клиенты с громким именем. Для клиентов такой раздел на сайте – показатель профессионализма и компетенции, для асессоров – это сигнал о доверии и авторитете. Вот так сделали мы.

———

Конечно, в каждой нише (e-commerce, edtech и т.д.) будут свои нюансы, но общие правила для всех одни. Не могу сказать однозначно внедрение EAT-факторов в ранжирование сайтов это хорошо или плохо, но нам, SEOшникам, остаётся только с этим мирится и адаптировать ресурсы под вышеупомянутые критерии.

@gelo_seo
1.3K views15:52
Открыть/Комментировать
2021-03-12 18:48:20
Какой метод закрытия от краулинга используют чаще?

Есть сайты, которые закрываются от краулинга ссылочными индексами, а конкретно закрываются от сервисов наподобие Serpstat, Ahrefs, Semrush и прочих.

Из-за закрытия от краулинга довольно сложно определить количество таких сайтов, и все же нам удалось просканировать определённую массу сайтов и построить статистику, которая демонстрирует, каким именно методом они закрыты от сканирования.

Так выяснилось, что около 60 тысяч сайтов закрыты в robots.txt и около 200 тысяч сайтов закрыты c помощью http access.

Определили выбор большинства, а какой метод выбирать вам и какой более надёжный, оставлю на ваше собственное рассуждение :)

@gelo_seo
1.4K viewsedited  15:48
Открыть/Комментировать
2021-03-09 14:44:23
Сложность фразы

В основном, все считают сложность фразы какой-то метрикой зависящей от количества ссылающихся доменов или ссылок у конкурентов, которые находятся в топе по этой фразе, но этот подход не совсем правильный.

Мы рассчитываем новую "сложность" и она учитывает кроме ссылочного ещё другие параметры, а именно — насколько сильно в ранжировании по другим фразам находится конкретный урл из топа, какие это фразы (коммерческие или некоммерческие) и много других параметров, которые относятся к самой странице.

То есть, сначала мы высчитываем сложность страницы, а затем мы считаем сложность фразы.

* Если вы хотите выйти в топ по конкретной фразе, то вам нужно стать лучше, чем урлы конкурентов по отдельно взятой фразе.

@gelo_seo
1.4K viewsedited  11:44
Открыть/Комментировать
2021-02-16 17:55:56 Индексация и ранжирование, в чём разница?

Одна из ошибок новичков это непонимание разницы в ранжировании и индексации.
Ранжирование и индексация - это два разных процесса и они независимы. Если ваша страница есть в индексе, не факт что она участвует в ранжировании.

Особенно если это молодой сайт и недавно залетевшая в индекс страница.
То есть отправка на переиндексацию добавит вашу страницу в индекс (если добавит), но это не гарантирует добавление в ранжирование.

Закрепим:
Ранжирование сайта — сортировка сайтов в поисковой выдаче, применяемая в поисковых системах.
Индексация сайта — процесс добавления сведений о сайте роботом поисковой машины в базу данных.
1.6K views14:55
Открыть/Комментировать
2021-02-11 20:29:28
Как проще всего анализировать ссылки и что сделать в первую очередь

Когда анализируете донора и у него много ссылающихся доменов, смотрите что это за домены и какое количество среди ссылающихся доменов на blogspot, это самая распространённая ситуация, когда определённые домены, PBN спамят blogspot и используют как источник ссылок.

Заходите в список внешних ссылок домена и сортируете по кол-ву исходящих ссылок, соответственно вы найдёте страницы, которые больше всего переспамленны, посмотрите их кол-во, так как часто бывает что большая часть ссылок, которые ведут на домен донора, ведут с переспамленных страниц.

Аналогичным образом можно найти страницы, с которых нужно убрать ссылки и отправить в disallow, заходите на список ссылок входящих и сортируете по количеству от большего к меньшему и первые ссылки будут, как правило с переспамленных доменов.

Что такое переспамленные домены? Те домены, которые имеют более 500 внешних ссылок, явно нужно убирать.
1.8K views17:29
Открыть/Комментировать
2021-02-09 17:40:55 Ранжирование высококонкурентных запросов.

Иногда все пути, которые работают для стандартных запросов не работают для высококонкурентных.

На первый взгляд, всё вроде хорошо, всё в топе, а какие-то высокочастотные запросы никак не залезут в топ. Это может касаться не только высокочастотных, но и среднечастотных запросов в зависимости от тематики.

Если ваша страница ну никак не хочет зайти в топ, то в этой ситуации нужно посмотреть интенты страниц, которые есть в топе по вашим ключевым словам.

В основном в высококонкурентных тематиках топ распределён на несколько интентов, то есть какая-то группа сайтов отвечает на одну группу запросов, другая группа сайтов отвечает на другую группу запросов. Это относится к запросам, которые без явного интента.

Пример:
Запросы с явным интентом: купить ноутбук.
Без явного интента: ноутбуки.

Когда человек вводит такой запрос - непонятно что он хочет сделать. Поэтому тут нужно зайти в списки сайтов в топе и посмотреть интент страниц, которые находятся в топе, как это сделать ?

Запросов таких немного, поэтому нужно поработать руками, это самый надёжный способ. Выписывайте вопросы, на которые отвечает анализируемая страница, так делайте для всех страниц в топ 10.

Итог:
После такой ручной пробивки вы найдёте группы интентов, которые подойдут для продвижения своих страниц в топ. Как правило, часть страниц будет отвечать на запрос "купить", часть страниц будет отвечать на информационные запросы.
1.4K viewsedited  14:40
Открыть/Комментировать