Получи случайную криптовалюту за регистрацию!

Hey, moneymaker!

Логотип телеграм канала @heymoneymaker — Hey, moneymaker! H
Логотип телеграм канала @heymoneymaker — Hey, moneymaker!
Адрес канала: @heymoneymaker
Категории: Бизнес и стартапы
Язык: Русский
Страна: Россия
Количество подписчиков: 6.79K
Описание канала:

➡️ Заметки SEO-специалиста
⭐️ Автор - Иван Зимин
📺 YouTube - youtube.com/@seo_stuff
💸 Реклама - @heymmads

Рейтинги и Отзывы

4.00

2 отзыва

Оценить канал heymoneymaker и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

1

4 звезд

0

3 звезд

1

2 звезд

0

1 звезд

0


Последние сообщения 9

2021-11-30 11:12:45 Телеграм-каналов о SEO и веб-мастеринге все больше, а что почитать интересного - все меньше.

Сегодня порекомендую канал SEO бро – @seo_bro

Евгений создает сайты с 2007 года. Еще в школьные годы он делал варезники под заработок на файлообменниках и продажу ссылок в SAPE А сейчас у него сетка сайтов, агрегатор и SaaS-сервис.

Инфу о заработке, лайфхаки и полезные инструкции, а также юмор и много сарказма выкладывает на канале.

Без сомнительных курсов, закрытых групп и прочей дичи.

SEO bro https://t.me/seo_bro

#реклама
620 views08:12
Открыть/Комментировать
2021-11-28 11:54:26 Не так давно узнав про теорию хаоса, принял решение запускать с определенной периодичностью сайты, не сильно рефлексируя о том, получатся они или нет.
Некоторые делаю на коленке, некоторые с серьезной проработкой. Суть теории хаоса - успех в любом деле определяется лишь числом попыток, вот этих попыток и стараюсь добирать, туда же относится и эксперимент с лидгеном.
При запуске придерживаюсь 5 принципов:

1. Масштабируемый
Потенциал масштабирования большой и не завязан на релевантном увеличении трудозатрат.
Допустим, чтобы увеличивать темп роста статейников необходимо увеличивать количество копирайтеров и сумму вложений. Не подходит.
Запилить агрегатор, который сам будет наполняться - подходит.

2. Автоматизация
Принцип работы проектов должен быть завязан на почти полной автоматизации и/или разовой настройке проекта;
Здесь всё понятно, один раз разработал принцип наполнения, автоматизировал по максимуму, запустил и забыл.

3. Пример
Есть заранее известный успешный кейс с интересным показателем по трафику/доходу;
Трафик и доход оцениваю примерно. Если потенциал дохода от 50 000 в месяц - проходит.
Живой и работающий пример избавит от ситуации, когда кажется, что проект важный и нужный, но по итогу только тебе.

4. Стоимость
Стоимость разработки не более 100 000 рублей;
Психологически комфортная цифра, которую я готов отдать за разработку продукта. Понятно, что это верхняя планка и большинство проектов запускаются в пределах 50 000.

5. Срок запуска
Занимает времени на запуск не более 2-х месяцев;
Важный момент, я не готов растягивать разработку на полгода или год, имея проверенных фрилансеров в штате удается запускать быстро и без задержек.

- месяц на проектирование и подготовку ТЗ;
- месяц - программирование и отладка;
604 views08:54
Открыть/Комментировать
2021-11-27 10:04:19 ​​В ночь с пятницы на субботу нефть потеряла 12%. За последний год таких резких просадок не припомню.
Подозреваю в понедельник при открытии рынков начнётся паника, полетим еще сильнее. Купил попкорн, надел 3D очки, наблюдаю.
Будете продавать акции?
818 views07:04
Открыть/Комментировать
2021-11-26 12:40:24 Эксперимент с лидгеном. Часть 1.

Сейчас многие говорят про лидген, но заходить в него не спешил совершенно по ряду факторов:
- надо быть уверенным в партнере;
- нужна интересная денежная ниша;
- ниша не должна быть перегрета (как те же сервисные центры);

Послушав парочку докладов Алексея Паньшина, отложил основные моменты в задворки памяти и дальше занимался клиентами.
На очередной тренировке, вдруг между прочим слышу от знакомого, мол запустил бизнес, слышал ты сайтами занимаешься, подскажи что делать.
Залез в выдачу, провел аудит, глянул конкурентов, наметил стратегию, на следующей тренировке за 15 минут рассказал что и как делать, но увидел полную растерянyость в глазах собеседника.
Вроде понятно, но с этим всем надо разбираться, как там эти карточки организаций заводить, как накручивать отзывы и так далее. Тут то я и вспомнил про то, что всегда хотел попробовать партнерится с бизнесном, что ему и озвучил.
Оказалось именно такой формат ему и нужен, хочет заниматься только бизнес процессами, а за хороший процент готов получать заказ.

Мой интерес простой - я вкладываю ограниченное число ресурсов (времени и денег) в ресурс, который длительное время будет давать профит в пассивном режиме.

Все известные мне публичные эксперименты с палевом ниши и сайта заканчивались тем, что их прогоняли порно-ссылками, поэтому чтобы лишний раз не провоцировать судьбу раскрывать пока не буду, но накину ряд интересных фактов:
- Это услуга, нужная всем;
- Средний чек от 20 000 рублей;
- Моментальное принятие решение после звонка;
- Конкурентов мало;

Если кто-то определит нишу в комментариях под постом, обещаю сказать, что да это она
Вводные такие, буду поэтапно расписывать затраты на продвижение, что делалось и какую конверсию дают мои действия (с палевом цифр).

Начальный ориентир такой:
- Разработка сайта под ключ (дизайн, структура сайта, структура посадок, контент);
- Настройка контекста;
- Десяток жирных вечных ссылок на главную;
- Начать наливать ПФ;
- Завести карточку организации во всех сервисах (яндекс, гугл, зун, 2гис) и фоном крутить отзывы;
- Поставить колл трекер;
- Замерять конверсию по разным каналам.

В связи с работой над большим проектом времени на посты в канал не хватает, но на VC выложил подробную статью как настроить лягушку для сканирования крупных сайтов, велком - https://vc.ru/seo/322387-skaniruem-bolshie-sayty-cherez-screaming-frog-seo-spider
574 views09:40
Открыть/Комментировать
2021-11-23 10:45:27
Анализируете логи сервера для SEO-задач?
Anonymous Poll
19%
Анализирую
59%
Не анализирую
21%
Что это?
219 voters528 views07:45
Открыть/Комментировать
2021-11-19 20:31:58 Продвижение больших сайтов. Часть 2.

Для тех, кто пропустил, недавно на продвижение пришёл большой проект.
Как и обещал, по шагам буду расписывать что делается и какой результат это даёт.

Запрос от клиента - начать как можно скорее и сделать что-то, чтобы остановить сильное падение. Вариантов не много, к ним относятся:
- Прописать шаблоны метатегов. На сайте в данный момент 800 тыс. дублирующихся метатегов Title и порядка миллиона страниц без Description.
- Удалить мусорные страницы. На старых сайтах абсолютно нормальная ситуация, когда незначительное действие приводит к генерации кучи страниц о которых никто не знает.

Если с метатегами все не так просто (разные типы страниц требуют очень вдумчивой проработки, даже одно лишнее слово может ухудшить ситуацию, ведь добавляется оно сразу к паре млн страниц), то с мусорными страницами куда понятнее и быстрее.

Для выявления мусора сайт необходимо просканировать, причём полностью (ну или значительную часть). Вариант с экстраполяцией здесь не работает (почти).
Для примера, чтобы оценить количество звезд на небе, достаточно посчитать количество звезд на маленьком участке и затем умножить на количество участков.
Здесь же так не работает, краулер идёт по веткам сайта и до проблемных разделов может просто не дойти, отсюда получаются неверные выводы.

Сканировать сайт можно через JetOctopus, либо самому. Ценник на работу с сервисом космический (и я в целом понимаю почему), для сканирования 5 млн страниц нужно отдать 500 евро в месяц, если туда добавить анализ логов - еще 750 евро. Решил сканировать сам через Screaming Frog, поскольку:
1) есть сервер достаточной производительности (2хE5 2689, суммарно 16 физических/32 логических ядра) и 48 gb RAM;
2) разработчики уверяют, что сканирование в 5 млн страниц лягушка потянет, нужно только настроить.
Как обычно всё получилось не без подводных.

Итак, отключаем всё лишнее, переводим скан в режим DataBase, выделяем 24 гб оперативки, ставим 10 потоков и полетели.
Первое с чем я столкнулся - падение скорости, если вначале было 20 урлов в секунду, то к полутора миллионам страниц скорость упала до 3-4 урлов в секунду.
С чем связано падение скорости понять не смог, программе хватает ресурсов, процессоры загружены на 30%, оперативки свободная есть.

Второе - дикое потребление места. В среднем получилось 100 гб на 1 млн страниц. Если с местом вопрос решаемый, то что делать с падающей скоростью не понял.
Просканировав за трое суток 1.5 млн страниц, решил изучить что там происходит. Каково было мое удивление, когда 1.2 млн из них страницы, генерируемые 4 разделами за счет комбинации фильтров.
Более того, все 4 раздел дублировали друг друга.

Анализ Яндекс.Метрики показал, что трафик на эти разделы генерируется всего 9 страницами в них. Решение здесь простое, шагаем в robots.txt
Disallow: {4 раздела}
Allow: {нужная_страница}

Какие страниц выпиливать будем решать позже, скан перезапустил, можно уходить на выходные.
830 viewsedited  17:31
Открыть/Комментировать
2021-11-17 15:40:04 ​​ Как пнуть конкретную страницу в топ-10, если другие методы не работают

Привет! Пока я ушёл в работу с миллионником, на другом проекте снова сработал метод под названием "подтолкнуть в топ-10". Не откладывая, делюсь, потому что метод несколько раз сильно выручал.

Предыстория
Есть клиент, производитель не шибко конкурентной продукции для B2B. Сайт - каталог товаров, ассортимент разумеется небольшой, но и спрос соответствующий.
Из всех категорий самая маржинальная одна, ключевая задача - вывести в топ именно её.

Что делали
- Размножили ассортимент до максимума, вместо 2 карточек - получили 16, множили по всем доступным параметрам
- Добавили хороший блок текста внизу категории
- Разумеется, выверенные метатеги Title/Description/H1
- Разумеется, все страницы под коммерческие факторы из этого поста
- Перелинковки, хлебные крошки, сайтмапы и HTML карты сайта

По итогу, ждём месяц, два - без движений, т.е сайт даже не выходит в топ-50, половина запросов - дальше топ-100. Клиент нервничает.
Решаюсь на крайнюю меру (и это не ПФ) - лезу в интернет и в глубоких дебрях (включая бурж и украинские сайты) собираю всю доступную информацию по продукции:
- История изобретения
- Особенности эксплуатации
- Особенности производства

Всего получается 15 тем после нескольких часов ресерчинга, темы пересекаются, можно оформить в одну большую статью, но решаю писать отдельные по 2-3 тысячи символов.
Отдаю копирайтеру, пишем за неделю все темы, размещаем на сайте в раздел "Статьи", отправляю на переобход.
Результат через неделю на скриншоте.

Выводы
- Выжигание семантики работает;
- Сколько бы споров не было - инфо статьи на коммерческих сайтах нужны;
- Если некуда расширяться по коммерческим посадкам - расширяйтесь в информационке
1.2K views12:40
Открыть/Комментировать
2021-11-16 20:33:26 Как массово сжать изображения на сайте без потери качества

Ко вчерашнему посту было несколько вопросов по сжатию изображений.
Самое простое и удобное решение - iCatalyst - https://github.com/lorents17/iCatalyst

Инструкция по работе простейшая:
- Через файлзиллу выкачиваем папку с картинками или корневую папку со всеми файлами (если не хотите копаться с выяснением, где лежат изображения);
- Скачиваем с гитхаба проект iCatalyst и распаковываем куда удобно;
- Дальше (как на скриншоте в инструкции) перетаскиваем скачанную папку с сайтом на иконку программы;
- Откроется диалоговое окно, тут выбор - Обычное сжатие или Экстремальное. В обоих случаях сжимается без потери качества;
- Выбираем цифру и уходим пить чай;
- Заливаем получившуюся папку на хостинг с заменой;

Хочу отметить, что кратного сжатия ждать не стоит, всё таки тут сжимается без потери качества и без ресайза.
Мои результаты для ~1000 файлов:
- PNG -38%
- JPG -10%
- GIF -15%
Для реально крутого сжатия использую compressor.io, но только при выборочной работе с отдельными изображениями.
1.4K viewsedited  17:33
Открыть/Комментировать
2021-11-15 18:31:23 Сегодня большой день - на продвижение пришёл клиент с рекордным в моей практике ежемесячным трафиком в 15 млн посетителей.

95% трафика - органика, причем в основном с Google. Задача - остановить планомерное падение, которое идёт в течении вот уже года и развернуть тренд в рост.

Как ни странно, но у такого большого проекта не было специалиста в штате. Разработкой структуры сайта, наполнением и остальными работами занимались сотрудники без соответствующих знаний, фактически - просто наполняли сайт.
Как следствие в индексе сотни тысяч страниц с дублями метатегов, кривой структурой, медленной скоростью загрузки.

Расчехляю свой 32 ядерный 2-х процессорный сервер, некогда наводивший суету по поведенческим в Яндексе, под сканирование лягушкой и начинаю работы.
Проект такого масштаба не первый, есть удачные кейсы с кратным увеличением трафика за год, поэтому буду применять наработанные методики и, конечно, искать новые подходы.

По мере работы буду делиться основными принципами по продвижению сайтов с миллионами страниц и результатами работ. Погнали
1.4K views15:31
Открыть/Комментировать
2021-11-15 11:13:35 Отсутствие результата тоже результат

Завершился трехмесячный эксперимент. Решил проверить, как изменятся позиции, если докрутить Google PageSpeed до 100 баллов.
Всего в эксперимента участвовали 3 сайта коммерческой тематики с показателем перед началом работ в 10-20 баллов, других работ не проводилось.

Основной прирост баллов дали работы:
- Оптимизация изображений (сжатие + LazyLoad);
- Оптимизация скриптов и файлов стилей;
- Изменение порядка загрузки скриптов;

Результаты
Вообще никаких движений в сторону роста, колебания в пределах процента по видимости по всем трём проектам в обоих поисковиках.
Вердикт - время можно не тратить, я бы ограничился только оптимизацией изображений автоматическим софтом.
3.0K views08:13
Открыть/Комментировать