Поговорим о качестве ссылок?

[Всего: 0   Средний:  0/5]

Появился очередной сервис по закупке ссылок и оценки их качества. Позиционируется как сервис для оптимизаторов, но на самом деле как обычно этот сервис для домохозяек.  Я очень сильно сомневаюсь, что реально работающий сервис кто-то выпустит в паблик –  отличные доноры более чем конечны. Но в данном случае дело не только в моих сомнениях, а  и в декларированных способах отбора “качественных” ссылок. Давайте взглянем на них поближе. Далее цитата из рекомендаций сервиса о  покупке правильных ссылок

проведем “продвинутую сеошную” фильтрацию:

  • тИЦ больше или равен 30;
  • Кол-во страниц в Яндексе более 20;
  • Кол-во страниц в Google более 50;
  • Наличие в Яндекс-каталоге;
  • Наличие в каталоге DMOZ;
  1. тИЦ не имеет никакого отношения к работоспособности ссылки.  Пункт означает: давайте наберём ссылок подороже. Сервису же  надо на что-то жить, а живёт  он с комиссии.
  2. Большое количество страниц сайта не говорит о его качестве. Более того, сайт созданный специально для продажи ссылок как раз и будет иметь много страниц. И перекос между количеством страниц в Яндексе и Гугле скорее говорит не об очень высоком качестве сайта. Пункт означает: даже не думайте смотреть в сторону сайтов-визиток, они нам самим нужны.
  3. Сайт купленный  на аукционе с целью торговли ссылками через биржи скорее всего будет в Яке. Т.е. ссылка из сайта в Яке может быть лучше, а может быть и хуже. Но однозначно дороже, ведь ссылки, продаваемые через сервис,  должны быть как можно дороже(см. п1)
  4. Чем дороже, тем лучше. DMOZ вообще заброшенный проект и сайт полностью перепрофилированный из этого каталога не вылетит. Т.е. присутствие в каталоге не говорит о качестве сайта и ссылки с него, и тем более не говорит о качестве в понимании Яндекса.

Далее предлагается браковать ссылки по посещаемости. По данным Alexa.   Угу. Где Яндекс и где Alexa и где качество ссылок? Но кивать на ПФ сегодня модно, не смотря на то, что валовая посещаемость сайта не имеет никакого отношения к качеству – доры или MFA тоже посещаемостью не обижены, однако качества могут не иметь.

Не очень правда понял,   это была типа критика “продвинутых сеошников” или первичный этап отсева “плохих” ссылок? Но дальше-то точно алгоритм работы сервиса?

  • Стоп-урлы. В этом факторе участвует список стоп-урлов для доменов, состоящий из более чем 100 значений (напр. ‘2005’, ‘2006’ и т.п., что отклоняет архивные страницы в покупке, ‘topic’, ‘forum’ и т.п. – отклоняет форумы и т.п.) – процент отклонений 12,3%;
  • Мало контента на странице. Здесь отклоняются страницы, где количество знаков контента менее 500 – 8,1%;
  • Стоп-слова. Отклоняются страницы, в тексте которых участвуют слова из порно-, эдалт-, игрового и политического словарей (отсев идет по более чем 3000 словам) – 10,5%;
  • Стоп-партнерки. Отклоняются страницы, которые участвуют в известных партнерках по т.н. “сливу” трафика (напр. LimonCash, EroPays2, MoneySyst и т.п.) – ~0.1%;
  • Ошибки и редиректы на страницах (404, 403, 301, 302 и т.п.) – 3.2%;
  • Кол-во внешних ссылок более 4 – 9.9%;
  • Кол-во внутренних ссылок более 30 – 33.9%;
  • Страница в индексе Яндекса – 10.3%;
  • Страница в кеше Гугла – 5.1%;

Приступим к разбору:

  1. Сама идея стоп-урлов не плохая, но зачем  исключать старые страницы, например, блогов. У некоторых из них с качеством всё отлично.
  2. Ну и при чём тут количество контента? Страница контактов с сайта-визитки – отличное место для размещения ссылки.
  3. Использование стоп-слов здравая идея. Непонятно в чём провинилась политика и почему забыт варез.
  4. Идея опять же здравая, но судя по количеству отсеянных доноров овчина выделки не стоит.  Я к стоп-парнёркам так же отношу коды Бегуна, Директа и Адвордса. Если их много и с некоторыми послаблениями для хороших сайтов.
  5. Это действительно разумно.
  6. Разумно, но нужно делать исключения для ссылок по теме.
  7. Угу. Давайте проигнорируем отличные новостные ресурсы и персональные блоги с большим архивом. С учётом процента отсева ( 33%) с водой очевидно выплеснули и ребёнка.
  8. С поправкой, что новой страницы может в индексе и не быть – годится.
  9. А гугль тут причём? Для него правила покупки совсем другие.

 

NB: Ежели чо, основная идея поста – не критика сервиса. Я его по этой причине и не называю.   Идея вынесена в заголовок.

Как видно из описания, реализована идея только чёрного списка. Я при покупке ссылок так же реализую идею белого списка, т.е. по некоторым характеристикам всего сайта отношу ссылку к потенциально хорошим, что не означает автоматическую закупку, но ко многим характеристикам плохих сайтов для сайтов из белого списка делается послабление. Пример потенциально белых – сайты из раздела СМИ Я.Каталога.

А определяете ли Вы качество ссылок или доверяете агрегаторам?

Поделиться Вконтакте
Плюсануть

17 комментариев к “Поговорим о качестве ссылок?

  1. Артем, ты, к сожалению, тоже ничего не понял. Там разобран пример, как обычный среднестатический сеонист фильтрует. А не как нормальные ссылки найти))))

    1. А, так это были рекомендации как не надо оценивать качество ссылок? 🙂 Тебе, наверно, следовало подчеркнуть этот момент особо. Болдом там выделить, не?

      1. А, вот понял, меня ввёл в заблуждение вот этот заголовок: Как ищут качественные доноры оптимизаторы. Качественные надо тогда в кавычки ставить.

        1. Нет. Была как раз цель показать – как ищут сейчас, и какие проблемы по настоящему стоят при выборе. Кстати, многие моменты по тн “сео-фильтрации” я оставил. Хуже от этого никому не будет) Главное вычленить реально работающие доноры.

        2. Кстати да, ошибку заметил – 30 внутренних. Все таки таким даже отборные сеонисты не страдают)

    1. Могу от лица Кувалды сказать, что гугль под представленный набор ограничений отрабатывает очень успешно, но только не переусердствовать с анкор-листом и общим кол-вом купленных ссылок (Пингвин весьма опасен и представляет более серьезную угрозу, чем кажется на первый взгляд).

  2. В статье помимо обычного отсева поднята проблема мадридского доклада и тематичности ссылок, в хаммере есть словарь коммерческих запросов, который позволяет с высокой точностью определять тематику страницы и кидать туда только тематичные ссылки.
    И еще не раскрыта тема заспамленности доноров, за этим тоже отдельный контроль, если донор переспамлен, то отклоняется от покупок и качество понижается значительно.

    1. Ставим ограничение в 1 внешнюю + околотекст и мадридксий доклад идёт лесом 🙂

      Что подразумевается под донором в плане переспамленности? Целиком сайт или набор его страниц или только сама страница, на которой закупается ссылка? И как трактуется переспамленность: количество исходящих ссылок, тексты этих ссылок или же тексты документа(ов)?

      1. Лучше ограничение в 0 текстовых внешних) Только еще прогноз надо ставить по ним( Который к примеру в той же сапе вм легко может игнорировать.

        Про заспамленность – если на доноре черезчур быстро начинает расти внешний ссылочный массив, то на нем перестают идти закупки. Заранее типа.

        1. Имел ввиду, чтобы купленная ссылка была единственной внешней на странице.
          Но. Вот только что проверил одну сцылочку, там 5 конкурентов, 2 из них на фарму. PR=0, тИЦ 0, по всем показателям сцылко гавно, а сайт по запросу равному анкору на первом месте. Донор – на втором.

  3. По поводу последнего, я бы сделал выборку по основному индексу гугла, так как если страница в “соплях” то скорее всего тому есть причины

  4. Отличная статья, интересная дискуссия в комментах.
    (не нашел как на них подписаться, не прокомментирововав 😉 )

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *