И еще раз о кошерном линковании
Тема правильного линкования является неисчерпаемой. Когда пишешь на эту тему, то всё время потом вспоминаешь еще кое-что забытое. Данный пост можно считать таким дополнительным вспоминанием того, что было забыто при написании предыдущего поста “Некоторые дополнения по политике линкования сайтов”.
“Черная дыра”
Сайт является “черной дырой”, если на нём нет исходящих ссылок. Попав на такой сайт, бот поисковой системы никогда не выйдет за пределы этого сайта, если будет делать переходы только по ссылкам.
Пользователь сможет выйти за пределы ”черной дыры” по ссылкам, так как пользователь может переходить по рекламным баннерам, где ссылки находятся в JavaScript. А поисковый бот интересуют только нормальные прямые ссылки.
“Черные дыры” в Интернете возникают из-за того, что некоторые веб-мастера не желают делиться своим PR. Особенно, если они находятся в плену некоторых своих заблуждений относительно природы PR.
Такое поведение сайта не считается естественным у поисковых систем. Поисковые системы постоянно собирают всякую статистику о поведении сайтов. В этой статистике есть, например, показатели среднего числа исходящих ссылок с сайта в зависимости от тематики сайта, от количества страниц на сайте, от возраста сайта, от его индекса цитирования и других параметров.
Если какой-то сайт начинает сильно выбиваться из среднестатистических параметров за пределы среднеквадратичного отклонения или даже за пределы доверительного интервала, то такому сайту поисковики начинают меньше доверять. Ибо с этим сайтом что-то не так, раз он выбивается из общего потока.
Стандартным доверительным интервалом в статистике считается интервал отклонения от среднего значения в пределах от -95% до +95% при нормальном гауссовом распределении. Скорее всего, сайты, находящиеся за пределами этого интервала теряют свою трастовость, как подозрительные.
Если сайт является ”черной дырой”, то его отклонение от среднего значения исходящих ссылок будет на все минус 100%. То есть такой сайт будет за пределами доверительного интервала поисковой системы.
Случайные связи с сайтом спамера
Блоги, ко всему прочему, веб-мастера заводят себе еще и для того, чтобы наращивать контент за счет читателей своего блога. Посетители блога, прочитав пост, иногда пишут какой-нибудь комментарий к нему. Тем самым, статья блога наращивает свой контент за счет такого комментария.
Этим пользуются спамеры. Всякий блогер знает, что иногда среди комментарием попадаются такие: “Да, я согласен с этим. Вот здесь посмотри интересный сайтик …”. И далее идет ссылка на этот самый ”интересный” сайтик.
Чаще всего, этот сайтик тематически никак не связан с тематикой поста в блоге. Цель спамера состоит только в том, чтобы оставить ссылку на свой сайт. При этом написать какой-нибудь полезный контент по теме поста в комментарии спамер не хочет и/или не может.
Фактически спамер попал в этот блог случайно. Просто шел мимо и увидел, что можно в комментариях оставить ссылку на свой сайт.
Неслучайный посетитель блога вести себя так не будет. Неслучайный посетитель или напишет в комментарии что-то полезное по теме поста и ссылку оставит на веб-страницу по теме. Или не будет мусорить в комментах и тем самым портить свою репутацию у автора блога, понимая, что, возможно, когда-нибудь придется написать тут что-то серьезное.
Такой спамерский коммент со ссылкой нужно немедленно удалять. Контента там кот наплакал, так что при удалении комментария контента на странице меньше не станет.
Если оставить спамерский комментарий, то поисковик обнаружит исходящую ссылку нетематического характера. Анализ этой ссылки приведет поисковую систему к выводу о неуместности и неестественности данной ссылки. За что сайт будет понижен в трастовости и, как результат, понижен в поисковой выдаче.
Анкер ссылки
В тексте ссылки желательно прописывать ключевые слова и фразы из той веб-страницы, на которую ведет данная ссылка. Очень хорошо, когда эти ключевые слова и фразы прописаны в тексте статьи на странице, где нужно поставить ссылку. Тогда ссылка ставится прямо в тексте статьи. Это идеальный вариант.
Если текст ссылки не является ключевой фразой, а представляет собой адрес веб-страницы, то это уже хуже. Но не смертельно, если ссылка тематическая.
Плохо, если ссылка нетематическая, и в тексте ссылки стоит фраза, которая не относится к тематике исходящей и/или входящей страницы.
Песочница для ссылки
Обнаружив новую входящую на Ваш сайт ссылку, поисковые системы сразу же начинают работать с ней в том плане, что по ней ходят поисковые боты, она заносится в список внешних ссылок на сайт и т.д.
Но при этом сразу не учитывается индекс цитируемости, который передает эта ссылка на Ваш сайт. Все новые ссылки, как бы, заносятся в песочницу (sandbox). Длительность песочницы для ссылок составляет примерно полгода. Только через полгода новая ссылка превращается в настоящую полноценную ссылку.
Почему же так, а не иначе? Откуда взялась эта цифра в полгода?
Срок жизни ссылки в полгода, это тот самый срок, который отделяет настоящие серьезные постоянные ссылки от случайных временных и спамерских ссылок.
На всяких досках объявлений, как правило, объявления не живут по полгода. Часто они автоматически уходят ”из эфира” уже через пару месяцев после подачи объявления.
Полгода, это вполне достаточный срок, чтобы на всяких блогах, форумах, проектах ”Вопросы и Ответы” и т.п. модераторы и блогеры почистили свои сайты от спамерских ссылок.
За полгода поисковые системы со 100-процентной надежностью детектируют все продажные мигающие ссылки и забанят их.
Все эти короткоживущие ссылки поисковые системы не хотят учитывать для целей расчета индекса цитируемости и трастовости. Зачем учитывать эти ссылки, если они всё равно пропадут и потребуется обратный пересчет индекса цитируемости.
Как показывает практика, если ссылка в Интернете просуществовала более полгода, то очень высокая вероятность того, что она просуществует много лет.
Сайты под фильтром
Лучше не ссылаться на сайты, которые находятся под фильтром поисковых систем. Наличие фильтра можно определить по маленькой доле страниц в индексе поисковой системы для сайтов, которые просуществовали уже более полгода.
Например, знаменитый фильтр Яндекса под названием АГС-17 четко распознается по такому факту, что в индексе Яндекса находится только одна главная страница сайта. Все остальные страницы сайта, сколько бы их там не было, не включены в индекс Яндекса.
У разных поисковиков разные фильтры. Поэтому, посмотрев на количество страниц сайта в индексе разных поисковиков, можно понять насколько сайт находится под разными фильтрами и какие именно поисковики применяют фильтры по отношению к данному сайту.
Плохо, когда все основные поисковые системы держат в своем индексе не более 50% всех страниц сайта. При этом не забывайте глянуть на файл robots.txt, не запретил ли сам веб-мастер индексацию некоторых страниц своего сайта.
------------------
Автор статьи: Евгений Миронов.