Получи случайную криптовалюту за регистрацию!

DrMax SEO

Логотип телеграм канала @drmaxseo — DrMax SEO D
Логотип телеграм канала @drmaxseo — DrMax SEO
Адрес канала: @drmaxseo
Категории: Маркетинг, PR, реклама
Язык: Русский
Количество подписчиков: 4.33K
Описание канала:

SEO фишки от DrMax.
Всё о продвижении сайтов.
#SEO #SMM #Google
Авторы:
тов. DrMax - @Drmax2SEO
тов. Макс Пивоваров - @MaximusP
По рекламе - обращаться к тов. Максу Пивоварову
Офф сайт: https://drmax.su
SEO книги: https://drmax.su/download

Рейтинги и Отзывы

2.67

3 отзыва

Оценить канал drmaxseo и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

1

3 звезд

1

2 звезд

0

1 звезд

1


Последние сообщения 2

2022-07-30 09:31:41 Перевод на русский документа от Google о поисковой системе, о том как работают асессоры и какие процедуры они выполняют.

#DrMax #Google #QRG #SearchQualityRaterGuidelines
3.1K viewsDrMax, edited  06:31
Открыть/Комментировать
2022-07-29 22:17:16 Важно: Google обновил QRG (руководства Google по оценке качества поиска)

В новом руководстве изменилось само понятие YMYL и EAT. Теперь Google определяет YMYL-страницы по их способности причинять вред. Темы, представляющие «высокий риск причинения вреда», могут существенно повлиять на «здоровье, финансовую стабильность или безопасность людей, благополучие или благополучие общества».

Затем Google определяет , кому может быть нанесен вред YMYL-контентом, включая человека, просматривающего контент, других людей, затронутых этим человеком, или группы людей или общество в целом. Потенциально это может относиться к насильственному, экстремистскому или террористическому контенту.

Вместо того, чтобы перечислять отдельные категории, которые могут считаться YMYL, как в предыдущих версиях рекомендаций, Google теперь просит оценщиков рассматривать YMYL-контент с точки зрения четырех типов вреда, который контент YMYL может причинить отдельным лицам или обществу.

Теперь Google утверждает, что многие или большинство тем не являются YMYL, потому что они не могут причинить вред.

Google прописали, что уровень EAT, требуемый страницей, зависит от цели и темы страницы. Если на странице обсуждаются темы YMYL (и потенциально может быть нанесен вред пользователю или другим лицам), EAT имеет решающее значение.

Даже если у веб-сайта положительная репутация, при наличии значительного риска причинения вреда страница должна быть оценена как низкокачественная.

Google также опубликовал новый файл , описывающий, как работают рекомендации по оценке качества поиска.

Google предоставил информацию о том, кто оценивает контент, где они находятся и как работает процесс оценки.

В совокупности с обновлением ядра алгоритмов, нас, возможно, ждет опять массовое падение трафика на YMYL сайтах. Статистика говорит именно так.

В общем надо посвятить пару дней вдумчивому чтению нового руководства.

#DrMax #SEO #QRG
1.4K viewsDrMax, edited  19:17
Открыть/Комментировать
2022-07-29 17:24:35 Вышел SiteAnalyzer 2.8

Наш товарищ Андрей Симагин & Co выкатил новую версию SiteAnalyzer. Кто не знает - это бесплатный конкурент Screaming Frog SEO Spider (ну и иных поделок).

В новой версии прикрутил несколько модулей:
Проверка WHOIS
Проверка ответа сервера
Поиск поддоменов
CMS-чекер
Семантический анализ текста
Анализ релевантности текста

Чем хорош SiteAnalyzer (ну помимо бесплатности) - можно обратиться к Андрею и попросить его прикрутить любую фишку, какой вам не хватает в подобного рода программах. И он прикрутит рано или поздно (я год просил сделать одну штучку))), но сделал в конце концов).

В общем пользуйтесь. Полный список того что было обновлено - смотрите у него на сайте.

#DrMax #SiteAnalyzer
951 viewsDrMax, 14:24
Открыть/Комментировать
2022-07-29 13:01:39 Как я не люблю Битрикс

Вот сколько проектов мне не попадало в "умелые" руки на проверку - везде есть проблемы с ним. И ладно бы проблемы были с недалекими SEO - специалистами, которые что то там наворочали. Нет, везде проблемы с движком.

За последний год уже четвертый раз наблюдаю, как движок рекурсивно генерачит тонны страниц - дублей. Такое ощущение, что он вообще не знает что такое 404 страницы и вместо того, чтобы на произвольный адрес выдавать ошибку - делает открытую для индекса страницу.

Вот у кого есть сайтик на битриксе - потестите. Возьмите какую - нибудь категорию сайта и пару раз добавьте её в URL

site.com/category/category

вылезет 404 ошибка? а если 3 раза?

site.com/category/category/category

а если 100500 раз? и достаточно любому глюку в шаблоне, как начинаются плодиться тысячи/миллионы ненужных страниц. И удивляться, куда трафик делся тут не приходиться.

И это только одна из сотен глюков/фич этой злосчастной CMS, которую нужно проверять при аудите. Там таких "особенностей" больше всего.

Ну а меньше всего проблем с сайтами на WP (при правильном шаблоне). Там некая "защита от дурака" имеется и особо накосячить в коде сложно.

А тем временем, Гугл начал новый апдейт своего ядра алгоритмов. Посмотрим что выйдет их этого.

#DrMax #SEO #Bitrix #техаудит
1.0K viewsDrMax, 10:01
Открыть/Комментировать
2022-07-20 10:30:16 Сколько времени занимает технический аудит сайта?

Вы можете самостоятельно провести быстрый технический аудит в течение нескольких часов, но, скорее всего, не сможете выявить или проанализировать наиболее сложные технические проблемы.

При проведении технического аудита необходимо использовать различные инструменты и следовать собственному чек-листу, вопросы которого нужно проверять, а не слепо следовать рекомендациям инструментов сканирования. У меня этот чек лист превышает 1000 пунктов.

Вам необходим опыт и знания, чтобы понять, действительно ли конкретная проблема, выявленная инструментом (например лягушкой), является таковой.

Основной набор инструментов для проведения технического аудита включает: Semrush, Screaming Frog, Google Search Console и другие. Но, зачастую, приходится лазать в голом коде и глазками просматривать, что там твориться. Ни один инструмент не дает даже 50% картины технического состояния сайта.

Технический аудит отличается от полного SEO-аудита тем, что он сосредоточен только на технических составляющих SEO, таких как работоспособность сайта, сканирование, индексирование, проверка sitemaps, robots.txt, быстродействия, проверка наличия дублей, Thin Content, первичный анализ заголовков (и иных мета данных) и их оптимизации, проверка хрефлангов, поиск иных проблем мешающих сайту достойно ранжироваться и др.

SEO-аудит часто проверяет другие элементы SEO, такие как мета-заголовок, описание, структуру страниц, текущую видимость сайта, качество и многое другое.

Приличный технический SEO-аудит в большинстве случаев занимает от 4 рабочих дней (у меня). Конечно, это во многом зависит от масштаба и сложности сайта. Например некоторые сайты только сканировать лягушкой приходиться сутки - полторы.

Насчет сканирования. Необходимо его выполнять неоднократно. Как минимум дважды, для десктопной и мобильной версии сайта. Наборы ошибок порой значительно для них отличаются. Кроме того, крайне желательно сканирование проводить с полным реендерингом страниц (включенными Java скриптами), чтобы получить картину, близкую к тому что видит Google.

Кроме того, на одном из проходов сканирования лягушкой (лучше отдельном), желательно выпарсить весь кэш Гугла, чтобы понять, что Гугл знает о сайте. Порой на мелком сайте бывают кэши, содержащие в десятки раз большую информацию, при анализе которой становится понятно, почему тот или иной сайт не ранжируется в должной мере. Чтобы включить эту возможность, пройдите в лягушке в Configuration - API Access - Google Search Console - вкладка Search Analytics и включите крыжик Crawl New Urls Discovered in GSC. Эту информацию лучше всего собирать на отдельном проходе, ибо можете подзапутаться с тем, что есть на сайте.

И еще одна крайне полезная фишка. Как известно, Google прикрутил API к GSC и теперь лягушкой можно выдирать дополнительную информацию по отдельным страницам сайта. Это лучше совместить с обычным проходом по мобильной версии сайта. Находится эта возможность на третьей вкладке настройки API GSC - URL Inspection. Там включаем обе имеющиеся галочки. Теперь вы можете понять почему на тех или иных страницах нет трафика, как Гугл относится к этой странице и т.д. и т.п.

Очень хорошо данный анализ совмещать с анализом падения/роста трафика, выпарсив данные из Гугл Аналитикса. Тогда становиться более понятной динамика отношения Гугла к отдельным страницам и при проведении элементарного сплит-анализа, становится ясно, почему упал/вырос трафик на отдельных страницах.

Единственным недостатком является бесплатная ежедневная квота в 2000 URL. Если нужно больше - придется либо докупать, либо проводить анализ сайта по частям (по отдельным разделам).

Вывод: полноценный технический аудит - это довольно трудно и долго (если качественно и хотите получить результат ввиде роста качества сайта и, соответственно, трафика). При этом надо обладать недюжим опытом, чтобы по отдельным признакам вычленить матёрую проблему (и не одну), которая мешает ранжироваться сайту.

Может опять книжку по техаудиту написать? Там фишек интересных - масса.

#DrMax #SEO #техаудит
1.3K viewsDrMax, 07:30
Открыть/Комментировать
2022-07-19 21:03:26 Бурчание о SEO

Разговаривал тут давеча с коллегой старым, еще из тех времен, чуть ли не первым оптимизатором. Так вот он высказал интересную фразу, что нынешнее поколение оптимизаторов пытается засунуть в круглое отверстие квадратную палку (в оригинале несколько эффективней сказано). От чего ПС охреневают и не могут понять что от них хотят и что делать с сайтом.

Он имел в виду интент контента. Что не всякий контент является тем, что хочет видеть посетитель по данному запросу. И процесс "регулировки" интента в правильную сторону является сейчас чуть ли не главным. Вообще "регулировка" интента как термин - мне крайне понравился.

Далее о пресловутой "кнопке бабло", нажав на которую польются тонны трафика и килобаксов. Несомненно такие кнопки есть. Например, если вы заполучите избранные фрагменты в Гугле, то резко увеличите объем трафика. А для этого опять нужно работать с интентом, составлять списки, включать ключи и вопросы в заголовки, делать микроразметку. Что то уже это и не кнопка, а кропотливый и тщательный труд выходит ))))

Есть и иные кнопки бабло и их много. При этом миллионы таких "кнопок", работающих в прошлом уже пофиксены, но и десятки новых откроют пытливые умы уже в недалеком будущем.

Однако при этом оптимизаторы забывают о простых, примитивных вещах, которые сами по себе могут резко увеличить трафик и без пресловутой кнопки "бабло".

например:
- оптимизация тайтлов, добавление ключей в них
- разбивка контента на части, добавление структуры, заголовков с ключами
- внедрение изображение и примитивное прописывание альтов
- добавление выводов к каждой статье / странице
ну и многое другое, что можно и нужно проделывать на странице, о чём вы прекрасно знаете. Главное - не лениться.

Из опыта оптимизации собственных сайтов я давным - давно понял, чем больше я трудов вкладываю в страницу сайта, чем чаще её правлю, обновляю, оптимизирую под посетителей - тем больше выхлопа я получаю.

В конце концов, максимально я заработал на нескольких группах странниц своего сайта, которые правил и оптимизировал чуть ли не ежедневно.

Вспоминается один наш коллега, который начинал в стародавние времена, собирая десятками сайты еще на "народе" и добиваясь сотни тысяч посетителей в день на событийном трафике в эпоху диалапов/адсл. Что само по себе было удивительно.

Любимой его поговоркой по отношению к ПС было "все равно я заставлю тебя налить мне трафика" и он ежедневно корпел над своими монстрами. Я в курсе нескольких его современных проектов, очень сложных и необычных и смотрю, как он из месяца в месяц, из года в год улучшает их ранжирование и наращивает постепенно трафик.

И так мы бурчали с коллегой весьма долго. Основной вывод таков, что нужно вкладывать усилия, не забывать о мелочах и постоянно отслеживать, чего же в действительности хотят посетители сайтов. И будет счастье )))

#DrMax #SEO
1.1K viewsDrMax, 18:03
Открыть/Комментировать
2022-07-15 09:23:15 Яндекс.Вебмастер в прошлую субботу 09.07.2022, зарелизил новые правила делегирования прав на сайт, о чём предварительно и активно алертил заранее. Письма предупреждения появлялись за один-два месяца. Итак:
- Теперь права могут выдавать только те пользователи, которые подтвердили их через файл/мета-тег/DNS-запись (раньше могли выдавать и делегированные тоже);
- Соответственно, отвалились все права, выданные пользователями, которые получали их с помощью делегирования;
Всё, как в Search Console у Гугла. :) (Подсмотрел и внедрил - 100% оптимизация :-) )
Кто забыл чекнуть или много сайтов - скорее на проверку!

#Яндексфишки #Яндекс #ЯндексВебмастер #SEOновости #МаксПивоваровseo
1.3K viewsМакс, 06:23
Открыть/Комментировать
2022-07-13 14:34:52
Куда там генераторам регулярных выражений, о которых писал недавно. Теперь код (на нескольких языках) можно генерировать, задавая произвольное описание нужной функции. Причем на русском. Можно и голосом.

Хех, страшно представить до чего кодерство дошло.

#DrMax
1.5K viewsDrMax, edited  11:34
Открыть/Комментировать
2022-07-12 08:26:27 Google смастерил обновляемый список подтвержденных обновлений алгоритмов.

Конечно у Google обновления ядра алгоритмов поиска происходит ежедневно, постоянно выкатывают небольшие неподтвержденные обновления, но тем не менее данный список лучше всего добавить в закладки.

Это полезно.

#DrMax #Google #Updates #Ranking
1.4K viewsDrMax, 05:26
Открыть/Комментировать
2022-07-12 07:42:59
Генератор регулярных выражений на основе натурального языка.

Буржуины всё шире используют мощь gpt-3. Теперь они прикрутили его для преобразования английского языка в RegEx-код.

#DrMax #SEO #RegEx
1.4K viewsDrMax, 04:42
Открыть/Комментировать