Отправить заявку
Агентство эффективного интернет-маркетинга
Киев: +38 (044) 392 74 16
Отправить заявку

SEO для брендов или как собрать сообщество. Кейс Svitmam.

Опубликовано: 19 октября 2017
Рубрика:SEO

Артем Гидин, Head of SEO Department WebPromo. Конференция WebPromoExperts SEO Day (18.08.2017).

Доклад о сборе лояльного сообщества вокруг бренда с помощью приемов SEO-продвижения. Рассмотрим на примере сайта компании Svitmam.

В данном докладе я сделал акцент на не банальных SEO-приемах, которые реально важно применять для любого глобального контентного проекта.

Структура статьи:

  1. О проекте Svitmam.
  2. Анализ трафика и существующих каталогов.
  3. Определение бесполезных групп страниц.
  4. Особенности внутренней перелинковки.
  5. Технические лайфхаки.
  6. Определение стратегии по линк-маркетингу.  
  7. Борьба за ключевые слова и ТОП.
  8. Анализ результатов.

О проекте Svitmam

Svitmam - это социальная сеть для мам, которая является проектом компании Huggies. Huggies - это один  из лидеров разнообразных детских товаров, таких как подгузники и т.п.

Маркетинг направления Huggies ориентирован сформировать аудиторию, максимально лояльную к своему продукту. Для этого Huggies решил создать портал Svitmam.

Концепция проекта заключается в том, что на данном сайте публикуются статьи для мам. Это некое сообщество, где каждая мама может создать свой профиль, пообщаться с подругами и специалистами, поскольку на сайте работают квалифицированные люди, те же самые доктора, другие мамы, которые готовы всегда дать совет.

Эта тема подкупает целевую аудиторию тем, что появляется лояльность к бренду и в этом является основная фишка Svitmam. Когда к нам пришел данный бренд на продвижение они поставили достаточно простую цель - это популяризация портала Svitmam для получения новых пользователей, удержания старых, написание и формирование правильной стратегии.

Задачи проекта были простые:

  1. Техническая оптимизация
  2. Линк-маркетинг (который включает аутрич, крауд-маркетинг, который включает работу над пиар-статьями.
  3. Контент-маркетинг, т.е. подбор тем, работа над тем, чтобы контент, который публикуется, был максимально эффективным и собирал максимальный объем трафика с поисковых систем.

Анализ трафика и существующих каталогов

Первым блоком, который мы рассмотрим, является анализ трафика из существующих каталогов. Вы видите таблицу, которая являет собой некий детальный анализ того, что есть на сайте Svitmam.

Что в этой таблице?

Есть распределение по поисковым системам и есть анализ каждого отдельного каталога. Портал состоит из:

  • страниц пользователей
  • тем (тема - это статьи, которые публикуются профессиональными редакторами Svitmam)
  • объявления (место, где люди могут продавать, дарить, покупать разные товары и т.д.)
  • справочник разных предприятий (те же роддомы и другие, связанные с данной тематикой направления)
  • страницы сообщества. Поскольку Svitmam  это социальная сеть, то  у пользователей есть возможность создавать свой контент. Т.е. есть сообщество,  например, “сыпь у детей” и в данном сообществе мамы могут создавать свои подтемы, делиться опытом, комментировать и т.д.

С одной стороны, это является значимой фишкой, поскольку мы получаем User-Generated контент, который крайне важен для поисковой системы. С другой стороны, мы получаем слабо контролируемое формирование контента (люди склонны копировать откуда-то контент, создавать дублированные темы и т.д.), что, в принципе, является негативом для SEO. Поэтому аналитика трафика существующих каталогов для нас была важна, как для любого большого проекта.

На этом же слайде статистика говорит о том, что есть объявления, которые занимают 20 тысяч страниц, но при этом дают всего лишь 1,5% трафика. В поисковой системе есть логика того, что у Google (да и у Яндекса) есть ресурс сканирования поисковой системы. Большим сайтам и SEO-специалистам, которые ведут большие проекты, крайне важно упрощать поисковой системе сканирование ресурса. Сканирование в дальнейшем влияет на индексацию сайта в поисковой системе и его ранжирование в поисковой выдаче.

На сканирование сайта влияет:

  • мощность сервера
  • скорость загрузки сайта
  • авторитет сайта и т.д.

И каждому сайту Google назначает какой-то свой определенный интервал, за который Google может его просканировать. Для того, чтобы увеличить данный интервал и для того, чтобы поисковая система ходила по максимально полезным для нас страницам, мы можем обрабатывать те страницы, которые являются менее полезными. Исходя из этого, мы видим, что страницы объявлений имеют 20 тыс. страниц, давая 1,5% трафика. Ими можно пожертвовать - оптимизировать, некоторые страницы закрыть от индексации и сэкономить ресурс поисковой системы, чтобы проиндексировать и просканировать страницы тех же статей либо сообществ.

На практике продвижения данного проекта мы видим, что есть страницы пользователей. Это примерно 178 тысяч. Из них 56 тыс. - это страницы фотографий. Т.е. для каждой фотографии формируется свой адрес, но данные страницы являются мало полезными, поскольку на одной html-странице есть только одна фотография. Логика такая, что есть профиль пользователя, есть альбомы и есть фотографии. Таких профилей 60 тыс. страниц и задача заключалась в том, чтобы поисковая система не тратила на них время. К нам пришло достаточно простое решение: сделать урлы фотографий с помощью хештегов. Якорная логика формирования URL помогла сделать так, что поисковая система не считает сформированный url отдельной страницей. Поэтому данная методология помогает упростить и уменьшить логику сканирования.

Подобный анализ must-have абсолютно для всех больших проектов. Специалист должен понимать, куда тратится ресурс сканирования, какой объем  страниц есть, какую долю трафика дают данные страницы. В дальнейшем это поможет принять решение по упразднению, закрытию от индексации либо другими действиями с данными целевыми страницами. Это именно то, что мы сделали по сайту Svitmam.

Определение бесполезных групп страниц

Большие сайты, на которых пользователи сами генерируют контент, требуют более тщательного анализа. Есть такой замечательный инструмент как Netpeak Spider, который позволяет просканировать определенные каталоги по сайту с помощью специальных правил.

Почему я решил показать данный слайд? Потому что в процессе общения с SEO-специалистами оказывается, что многие не умеют пользоваться самыми простыми методами определения сканирования сайта, чтобы делать какие-то дальнейшие выводы по продвижению.

В правилах (указываются в настройках) мы можем задавать категории, которые можно и нужно сканировать. После сканирования сайта мы получаем Excel-файл. Его мы сортируем по размеру контента от наименьшего размера контента страницы до наибольшего - и получаем список тех страниц, который имеет минимум контента в себе.

Далее мы анализируем данные страницы и выявляем закономерность - почему на данных страницах является так мало контента. В процессе ручного анализа для данного проекта, мы выявили, что в индексе поисковой системы, да и на сайте, достаточно много страниц пользователей, которые создали свой аккаунт, но не добавили ни фотографии, ни описания себя, ни какие-то свои дневники - т.е. ничего не создали. Такая пустая страница бесполезная, и таких страниц достаточно много. Если брать около 170 тыс. страниц, то около 30 тыс. страниц именно такого типа. Эту закономерность удалось выявить как раз благодаря тому, что мы просканировали отдельно каталоги и получили вот такие данные.

Чтобы такие страницы не тянули сайт вниз, мы исключили их из индекса, поставили там правило: в случае, если пользователь не заполнил никакой информации о себе, оно ставит там новый индекс, опять же, тот же самый, и получается, что мы помогаем ражироваться другим страницам подобным образом.

Особенности внутренней перелинковки

Если говорить о внутренней перелинковке, то есть 2 правила, которыми мы руководствуемся, чтобы собирать страницы, на которые нужно ставить ссылки.

Правило 1

В SEO во многих моментах работает принцип Парето. Что это значит? Это значит:

  • что 20% страниц на сайте дают 80% трафика
  • 80% остальных страниц дают всего лишь 20% трафика.

Поэтому для нас важным моментом является как раз определение этих 20% страниц, которые уже дают какой-то результат, и взять их в первую итерацию перелинковки, для того, чтобы удержать данные страницы, увеличить их вес и чтоб они и дальше приносили какой-то трафик.

Правило 2

Вторая фокус-группа страниц - это потенциальные страницы. В данном скриншоте вы видите информацию из нашей системы автоматизации. Что она дает?

Мы собираем структуру сайта, структуру всех статей. Под каждую статью собирается семантика.

Система автоматически суммирует суммы частотности всех запросов и выдает в таблице. Мы можем отсортировать, выбрать страницы с наибольшей суммой частотности - это будут наиболее потенциальные целевые страницы, которые могут дать максимум трафика.

Данные страницы мы берем в фокус-группу№2 и ставим на них ссылки. Опять же, ссылки ставятся по следующему принципу - формируется 2 блока:

  • популярные статьи
  • рекомендуемые статьи.

В популярных статьях выводятся ссылки, которые относятся к 20% самых эффективных, т.е. это самые популярные по страницам входа с органики. И здесь ставятся уже рекомендуемые ссылки на вот эти страницы. Ставиться все может в рандомном порядке либо с помощью какого-то алгоритма. Мы делали ручную логику представления, поскольку она была для нас максимально эффективной. Мы понимали что, куда и по какому принципу мы ставим. Таким образом мы увеличиваем вес самых популярных страниц и вес самых потенциальных страниц.

Другие полезные лайфхаки

Создание отдельных карт сайта, обработка дублей тем пользователей, механизм переноса сообществ в темы, уменьшение вложенности и длины URL, обработка скрытого контента. Это некие особенности, о которых нужно знать любому SEO-специалисту, для того, чтобы успешно продвигать сайт, подобные сайты, либо даже сайты интернет-магазинов и т.д.

Создание отдельных карт сайта

Что это нам дает? Мы в середине нашего Sitemap.xml формируем ссылки на другие подкарты сайта.

Все мы знаем, что Гугл рекомендует создавать в одной карте сайта не более 50 тыс. страниц и мы следуем этому принципу. Плюс к этому, мы каждую карту сайта разбиваем под отдельное направление. Например, одна карта сайта создана под страницы тем, вторая карта сайта создана под страницы сообществ, третья карта сайта создана под страницы пользователей и т.д. Исходя из этого, мы можем добавить эти карты сайта в Search Console и увидеть, сколько страниц Гугл индексирует. Получается, например, из 350 тыс страниц Google индексирует всего лишь 136 тыс. страниц. Если такая ситуация возникает, а она бывает достаточно часто при неправильной настройке индексации сайтов (особенно больших), то мы выгружаем каждый отдельный Sitemap, загоняем в инструменты, которые помогают проверить, какие страницы не в индексе по данным отдельным сайтмэпам, и, опять же, выявляем закономерность, какие страницы Гугл не индексирует. Мы можем также выгрузить логи, посмотреть,  заходил ли Google на эти страницы. Для этого можно взять программу Screaming Frog и Log Analyzer. Они помогут понять, если поисковая система заходит, но не индексирует, значит проблема со страницей, с контентом, содержанием, типом страницы. В таком случае можно либо закрывать страницу от индексации, либо делать там логику контента и т.д.

Обработка дублей тем пользователей

Поскольку пользователи склонны создавать одинаковые темы с одинаковым названием и т.д., мы сделали ряд определенных механизмов, которые запрещают пользователям создавать темы с одинаковым названием (например, когда пользователи пытается продублировать свою тему).

Бывает такое, что пользователь создал одну тему, ему не ответили. Он создает точно такую же, чтобы она подсветилась выше в ленте в надежде получить ответ. В данном случае мы запрещаем создавать пользователям полные дубли и даем им возможность сделать какое-то уникальное название, исходя из которого уже формируются метатеги, заголовки и т.д. Для поисковой системы это будут разные страницы, поскольку несмотря на схожие темы, комментарии к ним будут разные. Таким образом мы избавляемся от появления дублей на странице сайта. Такие методики достаточно важны для проектов, у которых есть user generated контент. Если ничего с этим не делать, то будет создано очень много дублей, тайтлов и т.д.

Механизм переноса сообществ в темы

Поскольку в сообществах создается очень много полезных статей, информации, то клиент попросил правильно оформить механизм переноса. Если есть сообщества с полезным контентом, то его можно перенести в темы. Темы - это статьи. Статьи имеют более высокую просматриваемость на сайте, и поэтому это является резонным. Здесь мы предложили следующее: через админ-панель можно перенести отдельные сообщества в раздел статьи, но, поскольку, они должно быть и там, и там, мы получаем дубли страницы. Здесь мы настраиваем canonical со страницы сообщества на страницу статьи, которую мы перенесли. И выгружаем в конце месяца список удобных изменений и пингуем более быстро с помощью того же самого add url google либо Search Console для того, чтобы поисковая система максимально быстро склеила данные страницы и поменяла выдачу url на нужные для нас.

Уменьшение вложенности и длины URL

На слайде ниже показана статистика того, как на основе одного миллиона сайта как более короткие урлы более высоко ранжируются.

Т.е. url до 50 символов имеют наиболее высокую вероятность попасть в ТОП1. Дальше уже идет по нарастающей: чем длиннее ваш урл, тем больше вероятность того, что вы будете ниже ранжироваться. Это является одним из небольших факторов ранжирования. Но, тем не менее, когда мы меняли логику структуры по данному проекту, мы это учли, заложили  логику генерации более коротких урлов, убрали промежуточные папки, настроили редиректы и более быстро это склеили. Это стало достаточно полезным элементом, ведь очень наглядно видно, когда у тебя с уменьшением вложенность и длин урла Google начинает лучше ранжировать те статьи, которые были, скажем, на 3-ей странице - они попали на 1-ю только после изменения урлостроя и структуры.

Обработка скрытого контента

На сайте Svitmam некоторые пользователи под статьями либо под сообществами оставляют большие комментарии. Для того, чтобы сделать максимально удобной возможность читать комментарии, клиент скрывает комментарии определенного объема. Т.е., если комментарии больше 100 слов, то следующая часть скрывается в кнопку “читать далее”. Для поисковой системы это не совсем правильно, поскольку Гугл может распознавать данное направление, как скрытый контент. Мы дали рекомендацию сделать скрипт, который во время загрузки открывает страницу с открытым контентом, после загрузки страницы комментарий захлопывается. Таким образом поисковая система получает открытый визуальный контент, который можно хорошо обрабатывать и ранжировать, и сигнал, что у нас нет скрытого контента. Пользователь же получает видимость того, что комментарий закрыт. Эта методология подходит для любого интернет-магазина, поэтому ее можно спокойно использовать.

Определение стратегии по линк-маркетингу

Часто спрашивают “сколько нужно ссылок?”, “какая должна быть динамика?” и т.д. На эти вопросы нет единого ответа. Я хочу сказать, что ссылок должно быть столько, сколько этого требует продвижение, т.е. сколько можно получить, чтобы это не выглядело переспамом, и чтобы эти ссылки выглядели максимально естественными. Мы всегда придерживаемся принципа того, что динамика должна быть максимально плавной, но если есть какие-то инфоповоды, то мы не стесняемся и максимально наращиваем какой-то объем ссылок. Статьи, для которых мы это делаем, достаточно неплохо выстреливают и занимают высокие позиции на первой странице.

Очень важный вопрос - какие ссылки нужно отклонять в условиях работы нынешнего "Пингвина"? Многие веб-мастера по-прежнему чекают ссылки CheckTrust.ru, отклоняют по показателям определенным и т.д. Мы от этого ушли, поскольку проанализировали, как работает пингвин, и выявили следующую закономерность: за брендовые ссылки, даже если они стоят с плохих сайтов, поисковая система все-равно не наказывает. Поэтому мы анализируем только анкорные ссылки, и отклоняем только те анкоры, которые стоят с нерелевантных или с некачественных статей. Поэтому очень важным моментом является анализ именно анкорных ссылок и отклонение только их. А все брендовые, безанкорные и т.п. ссылки мы не трогаем и оставляем, как есть. Если они плохие, Гугл в условиях алгоритма “Пингвин” просто не будет их учитывать. А если вдруг будет учитывать, то, соответственно, они будут передавать какой-то небольшой вес, который будет идти в плюс.

В чем логика и преимущество контентного проекта? В том, что регион ссылочной массы может быть любой. Обычно , если проект под Украину, то seoшники наращивают украинские ссылки. Поскольку проект контентный, то ссылки могут стоять абсолютно с любых регионов: Казахстана, России, Белоруссии. За это Google не наказывает, поскольку это естественно, поэтому доля трафика с данных регионов значимая. Так появляется возможность получать разнообразную ссылочную массу максимально безопасно, избегая наказаний со стороны поисковой системы.

Рабочая схема, которую можно сейчас применить, вы можете найти в 2-х статьях. Первая - о получении ссылочной массы, вторая - ссылка на небольшой видеокурс по получению ссылок, который сделала компания Referr. Можно прийти, ознакомиться, посмотреть. Там собраны все передовые технологии, те моменты, с помощью которых можно получить хорошую ссылочную массу.  

Борьба за ключевые слова и ТОП

Сильно влияет сложность выдачи. Что такое сложность выдачи? Если посмотреть на этот график, то можно увидеть, что достаточно большой объем выдачи занят разнообразными элементами.

Какие это элементы? К примеру, появляется тот же самый граф знаний, появляются локальные карты, появляются какие-то ответы и т.д. Гугл старается монополизировать максимально выдачу, чтобы пользователь получил прямо выдачи ответ на свой вопрос. Данный скриншот сделан с помощью сервиса Semrush.

Если посмотреть на аналогичные тематики на зарубежных рынках, то получается процент монополизированной Гуглом выдачи намного больше. В Украине пока это не так критично, но мы уже начали ощущать, что Google “съедает” высокочастотные запросы и становится сложнее получать трафик, потому что Google дает ответы уже в своей выдаче. Тут уже нужно применять хитрости, которые помогут в дальнейшем ранжироваться.

Какие хитрости мы применяем?

Мы придаем тексту добавочные ценности с помощью LSI. LSI - это латентно-семантический индекс. Это дополнительные слова, которые помогают поисковой системе понять, что это максимально качественный контент и дают возможность максимально высоко ранжироваться.

Что мы делаем?

  1. Конкуренты по ТОПу. Мы используем сервис ЛеммаТОП (http://lemmatop.yula-group.ru). Lemmatop позволяет брать урлы конкурентов и выделять те леммы (отдельные слова, приведенные к первой форме), которые используют конкуренты, чтобы использовать на своих страницах. Опять же, мы берем только тех конкурентов, которые уже высоко ранжируются.
  2. Поисковые подсказки. Мы используем сервис http://keywordtool.io/ru, который позволяет на отдельные направления, вопросы и статьи, собирать дополнительные слова, которые можно включать в контент. Этим самым мы получаем высокую добавочную стоимость.
  3. Поисковые подсветки Яндекса. Подсветки Яндекса работают таким образом, что с помощью сервиса https://arsenkin.ru/tools/sp мы получаем те запросы, которые Яндекс считает естественными, и которые желательно включать в свои статьи.

Т.о. у нас есть 3 блока, с помощью которых мы формируем дополнительные слова и направления. Под них мы формируем более четкие понятные статьи.

Также у нас есть еще одно исследование. Это длина контента. Статьи, у которых более 2 тыс. слов ранжируются выше. Это говорит о том, что Гугл любит контент, любит максимально качественное наполнение страницы. И, кроме текстового контента, для поисковой системы сейчас важны другие элементы, такие, как какие-то функции типа калькулятора, списки, таблицы, видео, фото и т.д. Очень важным моментом является то, что люди, которые публикуют и формируют данные контенты, должны быть максимально осмысленными. Под данный проект мы отдельно подбирали линкбилдера из окружения мам. Т.е. мы специально нашли девушку, которая сидела дома с ребенком, и, которая формировала максимально полезные качественные ответы на вопросы на разнообразных форумах. Это привело к естественному притоку реферального трафика и получаемых ссылок.

Результаты работ по проекту Svitmam

Если говорить о результатах всего того, что мы делаем, то они соответствуют  всем тем ожиданиям, которые есть у клиента компании Svitmam.

Мы получаем постоянный прирост поискового трафика, во-вторых, мы увеличиваем базу новых пользователей, которые приходят на сайт, т.е. 72% пользователей - это новые, это месячные данные, и доля органического трафика составляет 75%. И большая, даже львиная часть трафика - это все органика. Клиентам выгодно инвестировать в продвижение данного ресурса, потому, что SEO на данном этапе для этого контентного проекта дает очень хорошие показатели ROI и рентабельность инвестиций.

Оставить отзыв
Комментарий

Ваш комментарий будет добавлен после проверки администратором