2022-01-12 19:00:17
Продвижение больших проектов. Часть 3.
Прошло ровно 2 месяца как начал работать с большим проектом. Для тех, кто пропустил - часть 1, часть 2.
Работ было выполнено вагон, отчёт за декабрь содержал порядка 20 файлов с тех. заданиями.
То что меня бесконечно радует - внесение изменений на сайте (даже больших) занимает не более недели, только успевай проверять.
Итак, на текущий момент:
1) Найдены конкуренты, проанализированы, разобраны на части, метод описал здесь, определены важные направления для работы (правило 80-20).
Неожиданно оказалось, что 1.5 млн страниц одного типа, которые у конкурентов дают 20% трафика, по метрике моему клиенту дают только 6%.
Другой тип страниц, который даёт 60% трафика оказался максимально сырым. Собственно с них и начали работу.
2) Перед тем как расти в глубину, стали думать как вырасти в ширину. Оказалось, что материалы на сайте можно серьезно расширить через парсинг, а это новые точки входа, сделали, пока +20 тысяч страниц (думаем, как качественно дособрать остальное, потенциал порядка +1млн страниц).
3) Для проработки двух важнейших типов страниц - досканально изучил конкурентов, пометил основные моменты, посмотрел трафиковые страницы.
По итогу отрисовал в XMind новую структуру. Проблема в том, что она кардинально отличалась от текущей. Самым непростым решением было отдать её в работу. Одно дело, когда на сайт 200 страниц, которые переезжают в другой раздел, другое - когда в новый раздел переезжают 2 млн страниц. Реакция ПС заранее неизвестна, переезжать частями - оттягивать неизбежное, общей картины не покажет, а время потратим.
Старая структура сайта была хаотичная, связанные разделы и подразделы не имели иерархии урлов, лежали по случайным адресам, более того один и тот же тип страниц находился по адресам /url/ и /url2/.
Оказалось, что сайт переезжал на другой движок и после переезда новые материалы стали складывать по новому адресу
Спроектировал новую структуру. Красивая, удобная, понятная, древовидная. Каждый следующий раздел прокачивает предыдущий за счет перелинковки (хлебные крошки и внутренние ссылки), правильная иерархия урлов. Еще идёт процесс переиндексации, слежу за ситуацией.
4) Метатеги. За несколько итераций подготовил шаблон для всех основных страниц и подстраниц, с доработками, корректировками и обсуждением с владельцами. Ушло в работу.
5) Макеты страниц. Предложил внедрить новые типы страниц (подразделы разделов), отрисовал макеты, отдал в работу. Сейчас каждая из, примерно, миллиона страниц будет иметь порядка 10 подстраниц, и некоторые из них уже имеют свои подстраницы, 2 новых уже сделали и внедрили.
6) Логи сервера. Логами пока заниматься рано, но страшно любопытно, что там. Анализирую через Screaming Frog Log Analyser. Порядка 50 млн строк программа вытянула, но разочарованием было то, что работает только с 1 ядром, подробно писать не буду, лучше оформлю подробный мануал на VC. Самое интересное тут подгрузить данные парсинга (который выполнялся уже раз 20) и сравнить с тем, что есть в логах. Фактически мы ищем 2 типа страниц - есть в логах и нет в краулере, есть в краулере и нет в логах.
Если поисковики ходят по страницам, а краулер их не видит - значит проблемы с перелинковкой и добраться до страниц нельзя через сайт. Если краулер видит, но нет в логах, значит страницы либо мусор, либо поисковикам не хватает краулингового бюджета на их дообход за месяц.
7) Парсинг, выполняю стабильно раз в 3-4 дня после внесения изменений. Сутки-двое уходит, но зато сразу видны все косяки, которые отправляются в работу. Как парсить большие сайты писал здесь.
Благодаря краулингу нашёл кучу мусора, который остался от переезда со старого движка, фиксируем и либо закрываем в роботс (в случае, если не выпилить физически), либо устраняем.
8) Семантика не очень большая, всего 1.5к запросов, выбираю срез запросов по разделу и отслеживаю его.
Тут должны быть скрины с метрики, но пока их не будет, в декабре тренд развернулся и трафик начал расти, но нужны более достоверные данные, что это не сезонный всплеск. To Be Continued.
873 viewsedited 16:00