Получи случайную криптовалюту за регистрацию!

АлаичЪ про SEO, бизнес и …

Логотип телеграм канала @alaevseo — АлаичЪ про SEO, бизнес и … А
Логотип телеграм канала @alaevseo — АлаичЪ про SEO, бизнес и …
Адрес канала: @alaevseo
Категории: Маркетинг, PR, реклама
Язык: Русский
Страна: Россия
Количество подписчиков: 6.09K
Описание канала:

Говорим про SEO и внутреннюю кухню студии.
Основной контент из корпоративного seo-чата «АлаичЪ и Ко».
Автор канала: @VictimAlex (Александр Алаев, АлаичЪ).

Рейтинги и Отзывы

3.33

3 отзыва

Оценить канал alaevseo и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

1

4 звезд

1

3 звезд

0

2 звезд

0

1 звезд

1


Последние сообщения 7

2021-12-13 16:36:34 Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!

Как Яндекс и Google определяют last-click? Если бы пользователь открывал одну страницу, смотрел ее и возвращался в ПС – в целом понятно. Но на практике пользователь открывает большое количество сайтов одновременно во вкладках, переходит между ними не последовательно, а на те, которые загрузились, периодически возвращается в поиск, открывая новые. Как ПС определяет с какого сайта он вернулся? Понятно, что Гугл берет данные из хрома, а Яндекс из своего браузера. Но в России нет браузера монополиста – погрешность выводов только на этих данных слишком большая. Как в итоге ПС определяют этот самый ласт клик с высокой точностью?

Информации от самих поисковиков на этот счет нет, оно и понятно. Так что все нижесказанное – это лишь догадки, немного логики и здравый смысл (но это не точно).

Во-первых, никто не сказал, что ласт-клик определяется с высокой точностью. Наверное, на выдаче миллиарды кликов ежедневно, так что где-то на стыке ресурсозатрат и важности параметра достигается приемлемая точность.

Во-вторых, описанный сценарий поведения на выдаче - открыть сразу много вкладок - один из множества. Я тоже так делаю…но только когда работаю с компа, а на телефоне, например, мой сценарий поведения совсем иной: я жму понравившийся результат и перехожу на сайт, если меня все устроило, читаю и закрываю браузер, если не устроило – жму назад, попадают на выдачу, жму следующий результат и далее по аналогичному сценарию.

В-третьих, выдача уже давно неоднородна – кроме того, что там вперемешку коммерция и информационка, так еще в рамках этих групп есть свои деления. Надо оценивать: CTR конкретного результата, CTR определенной группы, возвраты, длину сессии на странице поиска и еще десятки (а может, сотни) других параметров.

Для всего этого нет необходимости использовать данные из браузеров или что-то подобное. Все, что измеряется на странице выдачи, и так уже подконтрольно поисковикам, точнее уже ничего быть не может.

Я к чему. Очень много пользователей, еще больше кликов, паттерны поведения разные, они меняются в зависимости от девайса…
Короче, рассматривать изолированно только этот один параметр не имеет практического смысла. Ну, разве что с чисто научной точки зрения и только.

А вот из практики хотелось бы добавить, что если мы тут собрались обсуждать продвижение и мыслим в этом ключе, метрика, которая существенно влияет на ранжирование – это CTR. При этом, вообще не важно, что происходит дальше и уж тем более не важно, что происходит на самом сайте.
На этом и строится накрутка ПФ, которая, как мы знаем, до сих пор работает прекрасно.

Вы можете задавать мне вопросы в комментариях или лично @VictimAlex

#вашивопросы
1.4K views13:36
Открыть/Комментировать
2021-12-10 13:43:18
Нужно мнение общественности: Какой уровень вложенности имеет главная страница и страница в одном клике от главной?
Anonymous Poll
63%
Главная - 0 уровень. Один клик от главной - 1 ур.
37%
Главная - 1 уровень. Один клик от главной - 2 ур.
621 voters1.9K views10:43
Открыть/Комментировать
2021-12-09 09:45:16 Скрепы рушатся, господа.
Alexa.com прекращает работу с 1 мая 2022 года!

Не уверен, что кто-то из вас покупал подписку на платные тарифы сервиса, но с 8 декабря 2021 года нельзя будет оформить такую подписку, а все существующие подписки будут действовать до 1 мая 2022 года.

https://support.alexa.com/hc/en-us/articles/4410503838999

Alexa Internet просуществовал 25 лет!
Аминь.
2.5K views06:45
Открыть/Комментировать
2021-12-08 09:50:41 ​​Наверное, многие из вас уже позабыли, что в конце июля я анонсировал новый сервис для краулинга/сканирования сайта – Qrawl.io.

«…сейчас мы быстро все пофиксим и вернемся с новым раундом тестирования!» - обещал я, но оказалось все сложнее. Так что я приношу свои извинения за столь длительную задержку.

На прошлом этапе было более 100 тестеров: спасибо вам за обратную связь, мы все (многое) учли и провели не только работу над ошибками, но существенно улучшили техническую часть парсера.

Краул предлагает базовый функционал (но теперь ваш ноут точно вытянет, всё в облаке, работает очень быстро, да еще и бесплатно):
- Базовые вещи (robots.txt, meta robots, canonical, редиректы, ответы сервера и т.д.),
- Анализ метатегов и заголовков (title, description, h1-h6),
- Анализ не HTML содержимого (скрипты, стили, файлы, документы и т.д. с группировкой по URL)
- Анализ изображений (с группировкой по URL),
- Анализ структуры (и вложенности),
- Анализ ссылок (внешних и внутренних),
- Сохраняет все ссылочные связи,
- Может обрабатывать 1000+ URL в секунду, если позволит сервер, где хостится сайт,
- Определение антиботов и защиты от парсинга (предупредим если для успешного сканирования сайта необходимо будет отключить защиту или добавить ip сервиса в вайтлист).

На этот раз:
- Никаких инвайтов (регистрация свободная для всех),
- Фидбек в свободной форме и по желанию (пишите мне @victimalex),
- Ограничение на 30 000 url на аккаунт (можно просканировать 30к страниц в рамках одного сайта, либо 30 сайтов по 1к страниц – как вам нравится).

https://app.qrawl.io/

Короче, го тестить, друзья!

PS Как только базовый функционал покажет свою стабильность, мы сразу отправимся пилить действительно крутые штуки, так что если у вас есть какие-то идеи, пусть даже совершенно безумные, пишите!
2.2K views06:50
Открыть/Комментировать
2021-12-07 14:07:08 Качественные ссылки под бурж SEO (или где взять надежного поставщика обратных ссылок для любого GEO?)

Если вам нужны качественные линки:

- аутрич
- крауд
- морды
- PBN
- другие типы ссылок

То вот чек лист для нужного результата:

1) Переходим по этой ссылке
2) Заполняем заявку
3) Обсуждаем задачу
4) Начинаем получать нужные ссылки
5) Получаем нужный топчик

Кто ставит ссылки?

Backlinkers – опытная и системная команда, которая уже более 7-ми лет занимается линкбилдингом.

- налаженный процесс
- четкое понимание задачи
- выдают рекомендации по анкор листам, динамике и простановке (а это очень важно для успешного линкбилдинга)

В общем, гоу обсуждать задачу, и получать нужный результат!)

Зачем оттягивать на завтра то, что может принести результат уже сегодня?

PS: Если вам влом заполнять заявку на сайте, то просто можно сразу написать Коле: @nick_konyev , он детально и оперативно подскажет)

#реклама
1.8K views11:07
Открыть/Комментировать
2021-11-25 13:39:56 ​​«Черная пятница, Киберпонедельник, Рождество, Новый год».
Если названия этих праздников вызывают не светлые эмоции, а чувство легкого натяжения нервных клеток, значит — пришло время заняться своими сайтами
Serpstat запустили SEO-распродажу: до 40% на все свои тарифы на период 6 и 12 месяцев!

Чем крут Serpstat:
более 30 инструментов для продвижения в одной платформе;
доступ к 244 поисковым базам данных Google и Яндекс;
возможность в один клик провести комплексный экспресс-анализ сайта с помощью расширения Serpstat Website SEO Checker.

Кроме этого, перед покупкой ребята проведут персональную демонстрацию возможностей платформы, чтобы вы могли определить для себя: Serpstat для вас или надо искать дальше?

Свою скидку можете забрать тут

А еще у них есть крутой блог, где они собрали готовые стратегии продвижения от лидеров ниши в формате чек-листов, реальные кейсы клиентов и советы от специалистов Serpstat по вашим задачам

#реклама
659 views10:39
Открыть/Комментировать
2021-11-24 14:04:07 Как делать SEO на запад?

Чек лист:

1. Подписаться на канал Виктора Карпенко
2. Получать норм идеи и практическую выжимку
3. Применять на своих проектах

PS: Посмотрите для примера этот пост, по прокачке.

Топов, трафика и мега конверсий!)

#реклама
1.1K views11:04
Открыть/Комментировать
2021-11-23 11:01:02 Ребята, напоминаю, что я отвечаю на ваши вопросы по SEO или бизнесу. Не стесняйтесь спрашивать!

Подскажите, как лучше закрыть от индексации все страницы с параметрами для избежания дублей (у меня все страницы с ЧПУ)?
Disallow: /
? или clean-param или canonical

В отличие от большинства seo-вопросов, тут есть решение, которое позволит удовлетворить оба поисковика.

Что нам говорит Яндекс:
«Иногда для закрытия таких страниц используется директива Disallow. Рекомендуем использовать Clean-param, так как эта директива позволяет передавать основному URL или сайту некоторые накопленные показатели.»

Самое главное тут не в самой рекомендации, а в причине: передача показателей страниц. То есть оно работает так, как должен работать canonical, который в Яндексе работает очень плохо и, например, сортировки и пагинации в итоге не склеиваются.
Если же просто закрыть страницы с параметрами от индексации при помощи Disallow: /? или meta robots=”noindex”, то «накопленные показатели» основной странице не передадутся.

Что нам говорит Google:
«Google не рекомендует блокировать поисковым роботам доступ к повторяющемуся контенту с помощью файла robots.txt или иными способами. Лучше всего разрешить сканирование этих URL, но при этом пометить их как точные копии с помощью ссылки rel="canonical" или инструмента обработки параметров URL.»

В Гугле никакого клинпарама не существует, зато canonical работает как положено! Фактически, вы получите результат, аналогичный описанному для Яндекса выше, если будете использовать canonical.

Кстати, в Гугле вообще лучше избегать использования robots.txt, так как он хоть и не сканирует такие страницы, но регулярно добавляет в индекс (с пометкой, что индексирование запрещено),

Выводы: Как вы уже догадались, чтобы все было хорошо, надо одновременно использовать директиву Clean-param: в robots.txt для Яндекса и rel="canonical" для Google.

Кроме этого, если технически затруднительно настроить каноникалы, для Гугла можно использовать инструмент «Параметры URL», где вы можете указать параметры и как их следует обрабатывать (указываем те же, какие будем писать в clean-param).

Директива Clean-param: https://yandex.ru/support/webmaster/robot-workings/clean-param.html
Страницы с идентичным контентом: https://developers.google.com/search/docs/advanced/guidelines/duplicate-content?hl=ru
Параметры URL: https://www.google.com/webmasters/tools/crawl-url-parameters

PS Видели, вчера интерфейс Google Search Console обновился? Я лично скучаю по старому интерфейсу (он еще остался в некоторых инструментах, например, если перейдете в «Параметры URL» по ссылке выше, то увидите его).

Вы можете задавать мне вопросы в комментариях или лично @VictimAlex

#вашивопросы
1.1K views08:01
Открыть/Комментировать
2021-11-19 15:00:15 Читали уже новость про то, что «Яндекс учтет сигналы о недобросовестности организаций при ранжировании их сайтов»?

https://webmaster.yandex.ru/blog/utm-source-wmblog-utm-medium-post-utm-campaign-new-ranging-yandeks-uchtet-signaly-o-nedobrosovestnosti-organizatsiy-pri-ranzhirovanii-ikh-saytov

Кстати, обратили внимание на url? Что-то контент-менеджер накосячил, однако. Так что, если вдруг они опомнятся и исправят url, возможно, новость по ссылке будет недоступна.

---
Как это работает?
Алгоритм может понять, какой сайт или бизнес действует недобросовестно. Например, сознательно уклоняется от предоставления уже оплаченных клиентом услуг или исполняет их в ненадлежащем виде. Алгоритм опирается на множество факторов, используя для принятия решения совокупность сигналов, когда одни данные перепроверяются другими. Это дает возможность исключить ошибки и делает бесполезной фальсификацию жалоб на конкурентов или, к примеру, публикацию в сети отзывов о себе.

Важно знать: новые правила никак не коснутся организаций, у которых были осечки в сервисе (например, связанные с человеческим фактором), но не было плана действовать так специально.

Представим, что существует клининговая компания A, которая работает по 100%-ной предоплате. Клиент ее внес, а специалисты к нему не приехали и приезжать не собирались. Будет ли влияние алгоритма на такой сайт значительным? Да. Яндекс просканирует поток сигналов о компании А, оценит их регулярность и придет к выводу, что это недобросовестная организация.

Существует компания B, оказывающая услуги по сборке мебели. Специалисты обычно делают все качественно и в срок, но однажды сильно опоздали, и клиент остался недоволен услугой. Это не повлияет на ранжирование сайта, потому что ошибки, форс-мажоры и недопонимание с клиентами случаются у всех. Злого умысла здесь не было.
---

Честно говоря, это звучит так, как не будет работать на практике никогда.
Сколько уже было слов «алгоритм может понять …» - и вместо многоточия можно подставлять историю, как конкуренты накручивают ПФ, покупают плохие ссылки и т.д.
Мы-то знаем, что происки конкурентов приводят к тому, что ваш сайт в жопе, как будто вы сами пробовали продвинуться запрещенными способами. А Яндекс никогда не комментирует происходящее, потому что не знает, что происходит, и «наш алгоритм все понимает, просто улучшайте ваш сайт».

Проклятые капиталисты

PS Как обычно, самое ценное в таких публикациях – комментарии.
990 views12:00
Открыть/Комментировать
2021-11-18 11:45:18 Привет, ребята.
Недавно я вернул рубрику #вашивопросы в рамках которой вы можете задать мне любой вопрос, а ответы на самые интересные я публикую в канале (на неинтересные отвечаю в переписке). Так что, если есть что спросить – пишите лично или в комменты.

Также вы мне периодически присылаете что-то, чем хотите поделиться (не знаю, зачем это вам, но мне очень приятно).
А где-то месяц назад меня посетила не гениальная, но все же идея – а что если обогатить наш канал вашим опытом? Просто так писать, будем честны, впадлу для большинства.
Но если мы предусмотрим небольшое вознаграждение тем, кто пришлет полезную информацию, например, 500-1000 рублей за опубликованный пост? Ваши небольшие кейсы, опыты, наблюдения и лайфхаки – если мне понравится, я опубликую в канале – тогда бонус ваш.
Что скажете?

А ниже я опубликую информацию, которую мне прислали сегодня:
Здравствуйте Александр, может Вам пригодиться, нашел возможность добавить компанию в Гугл картах в Крыму. Всего за сутки. Я думаю, можно так добавлять и в других регионах, чтобы не ждать месяц кода на почту, а потом уже на готовую карточку подтверждать права владельца.
Необходимо стать местным экспертом - https://www.google.com/localguides/signup
Справка Google - https://support.google.com/local-guides/answer/6225846?hl=ru
Моего 3 уровня хватило чтобы добавить компанию.
Далее - https://yadi.sk/i/45uVmGVvgGHuHQ
На почту пришло такое сообщение - https://yadi.sk/i/mAH-Y5J2PiTagg

Информация совсем не новая. Я писал об этом пару лет назад тут https://alaev.info/blog/post/7054#speedadd (заголовок «Как быстро добавить организацию на Гугл Карты?»), а пользовался и намного раньше. Но кто-то мог и не знать, поэтому я решил, поделиться.

Стать Местным Экспертом высокого уровня просто (но не быстро) – достаточно ставить оценки, писать отзывы, загружать фото и видео. Ходите в кафешки, рестораны, парки, останавливаетесь в отелях – пишете отзыв (с телефона и не менее 250 символов – так баллов больше), прикладываете пару фотографий – сразу дают много баллов. Прокачанный профиль может потом много где пригодиться
1.1K views08:45
Открыть/Комментировать