Получи случайную криптовалюту за регистрацию!

​​Вопрос 'Искусственная накрутка ПФ работает в Google?' Повед | SEO Dupa

​​Вопрос "Искусственная накрутка ПФ работает в Google?"

Поведенческие факторы можно разделить на внутренние и внешние.
Внутренние фиксируются на странице результатов поиска (SERP), внешние - на самом сайте, куда перейдет пользователь.
На стороне страницы поиска, помимо общего ранжирования, тестируется наиболее простые гипотезы качества веб-сайтов. Наиболее распространенная - так называемая длина клика. Суть гипотезы в том, что если страница полностью отвечает требованиям пользователя, то у него не будет причин вернуться на страницу результатов поиска.

Разные поисковые системы получают и обрабатывают разные наборы данных о поведенческих факторах.

Например, Яндекс временно приоритезирует релевантные ссылки и проводит некоторое подобие коротких A/B тестов. В зависимости от результатов каждой ссылки, она либо сохраняет приоритет, либо деприоритезируется.

С Google дела обстоят несколько сложнее.
Представители поискового гиганта следовали своей обычной манере общение и никогда не давали исчерпывающего или прямого официального подтверждения взаимосвязи поведенческих факторов и результатов ранжирования. Тем не менее, есть множество косвенных тому подтверждений - от довольно известного кейса 2014 года до регистрации нашумевшего патента в 2019. Но все это было до крупного обновления Оценки Удобства страниц в 2021. Запуск был запланирован на май, но позже приняли решение выкатывать обновление постепенно - начиная с середины июня 2021. Полномасштабную реализацию обновления прогнозируют к середине осени этого года.

Почему это все важно?

Говоря об искусственной накрутке, мы чаще всего подразумеваем симуляцию того или ного поведения, которое поисковой сервис будет воспринимать как положительный сигнал для приоритетного ранжирования.
Пытаться избежать анализа вашей страницы или сайта практически бессмысленно - помимо собственных ресурсов у поисковых сервисов есть доступ ко множеству внешних источников данных. Польза от синтетических пользовательских сигналов также под вопросом. С учетом растущего значения Core Web Vitals, симулировать полноценные положительные пользовательские сигналы станет намного сложнее.

Можно предположить, что сессии с мобильных устройств будут иметь больший вес при оценке результатов. Но даже в случае, если такая симуляция удастся, нет никакой гарантии значимого положительного эффекта при ранжировании.

Что касается метрик, то, кроме базовых индикаторов: показателя отказов и времени на сайте, будут важен целый пакет технических метрик. При наличии достаточно качественного хостинга, быстрых серверов, гибкой платформы и оптимизированного кода теоретически можно рассчитывать на положительный исход некоторых экспериментов с ранжированием и поведенческими сигналами. Но в Google многократно напоминали, что синтетические тесты сильно отличаются от результатов в реальной среде - метрики Lighthouse тому подтверждение.

Даже сейчас, ранжирование в Google считается менее подверженным накруткам за счет поведенческих факторов. В отличие от Яндекса и ряда других каналов, где накрутки процветают уже пару лет и пока ситуация не меняется.

Основной недостаток накруток за счет массового увеличения CTR целевых ссылок - кумулятивный характер ваших результатов.
То есть, допустим вы вошли в первые три результата или даже попали в сниппет за X кликов. Так как сайт не отвечает ожиданиям пользователей, вы привлечете органический трафик волнообразно и единоразово - это пользователи скорее всего к вам не вернуться, а с падением важных поведенческих метрик ссылка довольно быстро выпадет из топа . И чтобы вернуться как минимум на те же позиции потребуется приложить в несколько раз больше усилий и так каждый раз - в геометрической прогрессии с каждым циклом.