Shkondin.ru

Linkbaiting наоборот?

Как вы думаете, сколько собрал ссылок за год (без недели, и это не речевой оборот — год исполнится 1 февраля, мне просто до юбилея ждать лень) проект сайт

  1. который пиарят два довольно известных в блогосфере Димы — Давыдов и Честных
  2. на котором публикуются уникальные и интересные истории на тему, которая, если я ничего не путаю, всегда считалась одной из самых популярных у обывателей — истории успехов, да не абы какие, а self-mad[e]-man’ов.
  3. на котором проводятся конкурсы с призами
  4. и который основал оптимизатор?

По всем формальным признакам сайт должен быть популярным. Так сколько ссылок: десятки тысяч, тысячи, или на худой конец хотя бы сотни? А вот и нет — по версии Яндекса всего навсего 66 различных сайтов ссылается на сайт www.i-did-it.ru.

Вы наверное ждёте от меня разбора почему такая, в общем-то хорошая, идея не работает? У меня есть мнение, но для начала я хотел бы познакомится с вашим. Особенно интересно будет получить комментарии от копирайтеров — вроде бы их вотчина.

Реальный PageRank

Отстал тут маленько от жизни. Оказывается, Гугль показывает в своих Webmaster Tools историю страниц с самым большим PageRank. Как и следовало ожидать, самая пиаристая страница на моём сайте http://www.developing.ru/seobar/ , а вовсе и не морда с тулбарной 4-кой. Жаль, что показывает только одну страницу и без численного значения.

via

Заражённые запросы

Время от времени, в сети появляются предложения купить набор «реальных поисковых запросов» объёмом n млн+ записей (не, m -мало, надо написать n)
Я, как последняя редиска, собираюсь немного подпортить этот биз. Ага.

Что вы должны знать, прежде, чем купить подобную базу.

Во-первых, за сумму всего лишь в $180 (из них $30 за доставку) можно получить такую базейку:

File sizes: approx. 24 GB compressed (gzip’ed) text files
Number of tokens: 1,024,908,267,229
Number of sentences: 95,119,665,584
Number of unigrams: 13,588,391
Number of bigrams: 314,843,401
Number of trigrams: 977,069,902
Number of fourgrams: 1,313,818,354
Number of fivegrams: 1,176,470,663

Там, конечно, нет информации по бидам и популярности у посетителей Гугля, но зная фразу, получить эту информацию не трудно. Это не запросы, а словосочетания, выдернутые из текстов, размещённых в интернете. Это важное отличие, и вот почему.

Во-вторых, нужно знать о существовании термина заражённые запросы. Не думаю, что их заражают специально, но тем не менее «заражение» есть. Дело вот в чём: все сервисы, транслирующие запросы, заточены под показы рекламы. Т.е. к пользовательским «ошибкам» (а они часто ленятся писать предлоги, союзы и прочие артикли) добавляются модификации запросов сервисом, которые (модификации) используются для того, чтобы рекламные объявления показывались почаще.

Привожу пример, конечно высосанный из пальца, но, надеюсь, хорошо иллюстрирующий проблему. Словосочетание из базы, упомянутой выше: serve as the integral. Встречается всего лишь 68 раз. Если вы не поняли, почему так редко, то вы как и я не настолько хорошо знаете английский, чтобы безошибочно определять где используется неопределённый артикль бля a, а где определённый the. Если в вышеупомянутом словосочетании поменять артикль с определённого на определённый, то такое словосочетание будет встречаться уже несколько десятков тысяч раз. Пользователи же при поиске документов, наверняка будут опускать артикль, а поисковик скорее всего предложит фразу serve integral, чтобы рекламодатель мог охватить не только эти две фразы, но и ещё несколько других, содержащих слова serve и integral. А теперь подумайте, что произойдёт, если вы заточите дорвей под фразу, которую часто ищут, но редко используют? Я так думаю, что умеренное использование подобных фраз сойдёт за ошибки, а если каждая страница сайта будет содержать редкие фразы, то его судьба предрешена. Как говорится, хотите — верьте, а хотите — проверьте.

Ну и в-третьих, небольшая задачка на сообразительность. Представьте, что у вас есть подобная база, содержащая информацию по стоимости клика, частоте запрашиваемости и количестве конкурентов. Определить все ниши, где есть заметный траффик, приличные биды и почти нет конкурентов, можно одним SQL запросом. Два контрольных вопроса: если вы эту базу собрали сами, будете ли вы её распространять своим конкурентам вместе с нишами, а если вы её купили и в ней по случайному совпадению 🙂 оказались не вырезанными вкусные ниши, будете ли вы счастливы, обнаружив через пару недель в этих нишах несколько десятков злобных конкурентов?

SEO эксперимент Артемия Лебедева

В тайтле сайта студии Лебедева есть замечательное словечко: экстраультрагиперпупервротебупермегасупернадежный. При поиске этого слова в Яндексе и в Рамблере в данный момент я вижу ноль результатов. А Гугль и Апорт показывают и сайт студии и несколько других сайтов, которые содержат это слово. Причём Апорт показывает не только страницы, содержащие именно это слово, но и похожие.

Какие выводы? Как обычно ничего глобального :): когда ставите SEO эксперименты, используйте реальные слова, чтобы у морфоанализаторов крышу не срывало и эксперимент был чистым.

А морда не треснет?

Несколько дней не очень внимательно читал форум и пропустил две интересные темы.

Первая — про автоматические санкции за блочную продажу ссылок.

Моя реакция такая: во-первых, баян. Только другими словами сформулирован. Во-вторых, 31-го октября, т.е. за два дня до поднятия темы на форуме, я ловил свих конкурентов за хвост. Один из них имеет тотальное превосходство в выдаче и продвигается на 95% мордами. За прошедшее время существенных изменений в позициях этого сайта не произошло. В-третьих, вот что ответил Александр Садовский во второй теме на счёт платных ссылок:

Яндекс уже не учитывает многие виды «накрутки» ссылок. Что касается платных ссылок на мордах сайтов, с ними не все так просто – ведь некоторые из них достаточно качественные (возможно из-за высокой цены размещения), поэтому алгоритм их фильтрации пока не завершен.

и

Корректней сказать, что среди покупных ссылок мало совсем нерелевантных.

и даже выдал совет какие ссылки продавать за денежку ставить:

Ставьте ссылки, интересные пользователям вашего ресурса, помогающие найти связанную информацию или проанализировать предложение. Не ссылайтесь только потому что вас попросили сослаться.

В переводе на русский сие означает: продавайте ссылки в разумных количествах и не ссылайтесь на дорвеи.

К слову, «морда» была упомянута лишь топикстартером. В ответе Платона речь идёт о страницах сайта. Т.е. о многих страницах, а не об одной. Тем более главной.

Кстати, не могу не отметить один факт: панические настроения на форуме вместе с регулярным выпадением морд из индекса уже вылились в то, что и в Рунете всё шире применяется т.н. Domain Spamming. Вкратце суть такая: создаётся несколько десятков сайтов одной и той же тематики на отдельных доменах 2-го уровня и каждый из них выводится в топ разными методами. В результате, при любых перетрясках по каждому запросу в 10-ке находится несколько сайтов, принадлежащих одной и той же компании… Отличие от сеток состоит в том, что эти сайты между собой не перелинковываются, хотя и могут запитываться с разных сайтов, входящих в одну и ту же сеть.

Поймай конкурента за хвост

Что-то в последнее время у меня не получается написать сообщение, чтобы не пнуть кого-то 🙂 Сегодня пинаю АиП с их сервисом www.seorate.ru Нет, сама идея сервиса мне нравится, но реализацией не доволен. Потому, что они взяли за основу некие абстрактные эффективные показы. Я же решил воспользоваться куда как более приближенной к реальности, хотя по-прежнему не очень точной характеристикой — количеством переходов по ссылке в зависимости от занимаемого места.
Для тех, кто не вкурсе, напоминаю, что данные по переходам любезно предоставила AOL. Эти данные коррелируют с резултатами независимого исследования (via). Понятно, что данные по ~650K пользователей мне кажутся более точными, чем по 26 студентам, поэтому за основу я взял такие значения:

  1. 0.4225
  2. 0.1194
  3. 0.0847
  4. 0.0605
  5. 0.0487
  6. 0.0399
  7. 0.0338
  8. 0.0298
  9. 0.0282
  10. 0.0297

Места с 11-го по 15-е для Рамблера я не стал игнорировать как АиП, но уравнял в шансах, присвоив им коэффициент 0.01.

Коэффициенты для поисковиков я взял средние между SpyLog и LiveInternet: R=1, G=1.12, Y=2.68, отбросив прочие поисковики как малозначащие. Кстати, так и не понял, почему в АиП проигнорировали Mail.ru, но включили Апорт и MSN.

Дальше всё то же самое, что и у АиП: берём частоту запроса (по Рамблеру), умножаем на коэффициент популярности поисковика (по отношению к Рамблеру) и на CTR позиции.

Для данного поста я просчитал вот эту порцию запросов:

Запрос Частота
цветы 6966
доставка цветов 2091
розы 1322
свадебные букеты 925
заказ цветов 891
букеты 759
букет невесты 652
свадебный букет 592
доставка букетов 556
бизнес букет 491
заказ букетов 461
цветы с доставкой 300
цветы на заказ 250
цветы доставка 199
продажа цветов 193
магазин цветов 178
букет цветов 148

В результате, получил вот такие результаты:

Сайт Переходы
www.sendflowers.ru 14322
www.wildflowers.ru 8591
www.yes.com.ua 4332
www.24flowers.ru 4219
www.flower-shop.ru 4055
www.vivabilet.ru 3449
www.wildroses.ru 3007
www.pozdravim.ru 2579
www.uniflower.ru 2444
www.fastflowers.ru 2426
www.1flowers.ru 1698
www.tili-testo.ru 1624
www.amf.ru 1488
www.proflowers.ru 1148
www.present-flowers.ru 1100
www.buketbutik.ru 1036

Хочу обратить ваше внимание на более чем трёхкратную разницу между первым и третьим сайтами. У АиПовцев такой разницы нет. Во-первых, потому что у них нет разницы между первым и третьим местом в SERP (все три места идут с коэффициентом 1), а во-вторых, потому, что они используют гораздо большее количество запросов. Хвост запросов, конечно, может сгладить разницу, но вряд ли существенно.
Мораль такая: между кажущимися лидерами и лиредами реальными могут быть две большие разницы 🙂 Цветы для меня абстрактная тема, я с ней не работаю (потому и запросы отобраны абы как — стащил у АиПовцев несколько наиболее популярных по их данным), но в «своих» темах я увидел новых лидеров. Их-то методы я и буду исследовать. Чего и вам желаю.

БДБД палит тему: соль оптимизации под Яндекс

Делайте со мной что хотите, но мимо такого я пройти не могу.

Хронология событий:

27.10.2005 Евгений Трофименко создаёт тему: А не скачать ли нам базу ссылок рунета. Цель — вычислить вес ссылок, т.е. иметь альтернативу PR и вИЦ.

28.08.2006 Евгений создаёт тему: инструмент для SEO: регистрация экспертов. Евгений сообщает нам, что перешёл в БДБД, но занимается всё тем же — сбором базы ссылок Рунета. Паралельно планируется анализировать позиции сайтов и их бэки по высокочастотникам. Поэтому цель корректируется — выявить площадки, которые лучше всего помогают продвижению сайтов.

05.10.2006 Евгений создаёт тему: Купим ссылки с МОЩНЫХ страниц ПРЯМО СЕЙЧАС. Дороже, чем другие. А критерии мощности такие:

Pagerank не менее 5, индекс цитирования не менее 2000.

Не прошло и года, как затея дала плоды? 🙂

P.S: Жень, я всё понимаю, но так очевидно подставляться нельзя 😀 Могли бы объявку по ссылкам и с другого БДБДшного аккаунта на форуме кинуть.

Автоматизированный отлов дорвеев

Гугль кооперируется с Википедией на предмет отлова спаммерских ссылок.
Идея логична. Вики спамят в промышленных масштабах и доры можно отстреливать на подлёте. Собственно логично и объявление о кооперации — оно само по себе уменьшит объёмы спама в Вики.

А мне вот что подумалось. Формочка в Яндексе (или кнопочка в баре для FF от Яндекса) «пожаловаться на спам» не очень полезна. Определение спама для поисковика весьма и весьма субъективно. Лично мне пользоваться этой формочкой некомфортно по моральным соображениям 🙂 Я если и стучу на доры, то сразу на кучу однотипных, отправляя Александру Садовскому ссылку на запрос в Яндексе. На большой коллекции можно и алгоритм подкорректировать. Но! Я точно знаю, где я не буду ощущать никаких душевных терзаний определяя спам это или нет. В собственном блоге и форуме. В движке WordPress’а при модерации комментариев есть опция — пометить как спам. Нужно всего лишь дописать функцию, которая будет заодно сливать в Яндекс (Гугль, Рамблер) эти спаммерские сообщения. Или складывать их в одном месте, доступном в том числе и поисковикам. Подобный мод можно сделать и для других блогов и форумов на популярных движках. Работы не много, а информации для анализа будет море. Я даже с удовольствием размещу на форуме и блоге кнопочку: весь спам автоматом перенаправляется в поисковики.

Конечно, спамеры попытаются зафлудить такой механизм ложными жалобами, т.е. будут спамить в блоги и форумы нормальные сайты. Так что примитивный алгоритм «раз спамит, то в бан» не подойдёт. Но, нормальные сайты тем от доров и отличаются, что они друг на друга не похожи. Так что таким макаром можно будет вычистить как минимум типовые доры. Да и плюс одно дело спамить собственные ресурсы, зная, что расходы на спам окупятся, и совсем другое — спамить забесплатно чужие ресурсы. Так что поток «ложного» спама будет существенно меньше спама натурального.

Ну и в продолжение темы. Кроме отлова доров с помощью чужих ресурсов можно их отлавливать и на своих собственных. Более чем уверен, что комментарии, которые удаляют блоггеры на BlogSpot.com (Blogger.com) подвергаются Гуглем тщательному анализу. Если добавить немножко конспирологии, то Яндекс запросто мог создать с десяток каталогов и вычислять автосабмитеров по факту попадания во все эти каталоги…