Disclaimer(отмазка): cлегка ощущаю себя городским сумасшедшим – в очередной раз указываю инженерам Яндекса на ошибки в алгоритмах. Но, честное слово, seo-аудит с указанием на НПС-мерцание – не моих рук дело 🙂 Тем не менее, возьмусь утверждать, что алгоритм Минусинск входит в полное противоречие с основным алгоритмом ранжирования Яндекса – Matrixnet. В чём суть MatrixNet?
Метка: SEO
Магадан? Находка?? Жмеринка!!!
Для того (ну или до того, как), чтобы начать писать данное сообщение по привычке пользуюсь собственным баром – мне нужен блог Яндекса. Не поиск Яндекса по блогам, а блог компании. Этот или этот. Почему-то я нисколько не удивляюсь, что не нахожу их ни в текущей выдаче, ни в бете, не только в первой десятке, но
Магадан есть. Траста – нет.
На данный момент выдача buki.yandex.ru и yandex.ru по тем запросам, что я успел просмотреть совпадают на 100%. Т.е. Магадан наступил. Или полностью отступил. С чем вас и проздравляю. А вот Траста в Яндексе нет. Точнее он используется только в малом индексе (индексе, собираемом быстроботом). Объясняю почему. Траст появился для борьбы с дорвеями и линконакруткой. Т.е.
Supplemental Results
Всё что вы хотели узнать о соплях, но боялись спросить 😉 Летом 2007-го года Гугль убрал маркер Supplemental Results (Дополнительные Результаты) у страниц из дополнительного индекса. Однако сопли от этого не исчезли. Если поискать редковстречаемое на просторах интернета словосочетание, то можно увидеть вот такое сообщение: In order to show you the most relevant results, we
Яндекс погрозил Российской газете пальцем
[n2] И сказал: с главной страницы сайта издания, учрежденного Правительством Российской Федерации, стоит ссылка на сайт, торгующий дипломами Попалилась РГ, одним словом, на торговле говноссылками: По моим прикидкам РГ может потерять как минимум 100 000 полновесных российских рублей ежемесячного дохода только от продажи ссылок с морды. Сколько могут потерять все продавцы ссылок – сложно вообразить.
SEO фактики: о robots.txt, внутренних ссылках и двойной выдаче
Аккуратнее с robots.txt Из серии знал, но всё равно наступил на грабли: если закрыть в robots.txt большую часть сайта, то можно напороться на тотальную переиндексацию, т.е. вылететь из индекса. Как это было: сайт из-за кривой реализации ЧПУ (нет обработки некорректных параметров) порождал более 400К страниц известных Яндексу, а в индексе было только около 100К страниц.
Читать далее SEO фактики: о robots.txt, внутренних ссылках и двойной выдаче
Про апдейты Яндекса
[n2] Имеем следующий набор утверждений: Внутри яндекса под апдейтом понимают выкладку поисковой базы Поисковая база выложена во время t1. Последний проиндексированный документ в ней датирован t2. Приблизительная задержка t2-t1 обычно достигает 1 дня +/- несколько часов. Откаты на предыдущию базу не происходят – нет технической возможности Что имеем из наблюдений за запросом навроде такого: Дата
О советах Going Natural 2.0
Вы уже наверное знакомы с переводами от ProfitHunter видео-уроков от StomperNet под названием Going Natural 2.0. Если нет – читайте, там есть очень интересные мысли, хотя я абсолютно не понимаю, как можно делать те же выводы на основании использования тулзы имитирующей зрение пьяного подслеповатого циклопа. Если кто ещё не в курсе, то вся эта затея