Существует как множество заблуждений и мифов относительно способов раскрутки сайтов, так и просто устаревших методов раскрутки, которые когда-то работали, а теперь нет. Некоторые из этих способов достаточно безобидные и не могут навредить Вашему сайту. Но некоторые очень опасны и могут привести к таким результатам, как понижение позиций сайта в выдачи поисковика по ключевым фразам, так и к удалению некоторых или всех страниц сайта из индекса поисковика.
Начнем с ошибок в области SEO-раскрутки.
Это очень старый трюк, с которым поисковики научились бороться еще в 90-х годах. Я упоминаю его здесь только для полноты описания.
Суть была в том, что для повышения плотности ключевых слов на страницу добавляют список этих ключевых слов, написанных тем же самым цветом, что и фон страницы. Поэтому посетителям сайта эти списки ключевых слов не видны, они видят нормальные хорошо читаемые тексты. А поисковые роботы видят страницу с повышенным содержанием некоторых слов и фраз. В результате, в поиске по этим словам и фразам, такая страница начинает занимать более высокие места. Таким образом, часть текста на странице предназначена для поисковых машин, а не для людей.
Поисковики научились в html-коде страницы находить данные о цвете фона и цвете текста и понимать, что при совпадении цветов речь идет о скрытом тексте. Такой скрытый текст поисковики не включают в индекс, он остается не проиндексированным. Хуже того, если набор ключевых слов в скрытом тексте не встречается в явном тексте, то поисковики воспринимают такие "шутки" как попытку исказить их поисковую выдачу, как попытку продвинуть страницу в выдаче поисковика не по теме самой страницы. Это приводит к удалению из индекса всей страницы
Если таких страниц на сайте будет свыше некоторого критического количества или критической доли, то поисковик может отправить в бан весь сайт, как потенциально неадекватный поисковой выдаче.
У этого способа обмана поисковиков есть множество модификаций. Но ни одна из них не работает:
Тоже старый трюк, с которым поисковики научились бороться еще в 90-х годах. Упомяну его тоже исключительно для полноты картины.
Суть трюка в том, чтобы на странице разместить очень мелкий текст из нужных ключевых слов и ключевых фраз. Размер букв выбирается самым мелким, чтобы посетитель сайта ничего не смог бы прочитать. Таким образом, и здесь получается, что часть текста на странице предназначена для поисковых машин, а не для людей.
Этот трюк также сейчас не срабатывает, так как поисковики научились определять размер шрифта в html-коде страницы или в css-файле и определять, какой размер шрифта нечитаем для человека. Поисковики не индексируют такой текст. А если тематика текста для поисковика отличается от тематики текста для людей, то это расценивается, как попытка исказить поисковую выдачу и может привести к выкидыванию всей страницы из индекса и даже всего сайта, если на сайте этот трюк постоянно практикуется.
Иногда вэб-мастер слишком много в тексте начинает употреблять нужные ему ключевые фразы, по которым он хочет продвинуть страницу своего сайта в поисковой выдаче. Это начинает явно бросаться в глаза. Человеку, который читает материал на странице сайта, начинает казаться, что автор зациклен на определенной фразе или слове и начинает употреблять эту фразу или слово при каждом удобном случае, а порой и вообще неуместно. Это начинает отвлекать от смысла читаемого текста и просто раздражать на столько, что становится невозможно читать всё это.
Эта неестественная повышенная частота употребления какого-нибудь слова или фразы в тексте на странице сайта называется избыточной "тошнотой". Существует естественная максимальная частота вхождения ключевых слов в обычные тексты, написанные для людей. Обычно это максимум 8%-10% от всех слов в тексте составляют ключевые слова. Если 6%-7%, то это вполне нормально. Если 8%-10%, то это максимум, на грани естественного.
Если ключевое слово входит в текст с плотностью свыше 10%, то это явный признак того, что этот текст был написан не для людей, а для поисковых машин. Поисковики борются с таким спамом ключевых слов в текстах и понижают эти страницы в своей выдаче по таким ключевым словам, у которых избыточная "тошнота".
Эта же самая страница в поисковой выдаче по другим словам может сохранить свои позиции, а по "тошнотворному" слову понизиться или совсем исчезнуть их выдачи.
Понижение позиции в поисковой выдаче называется пессимизацией. А исчезновение страницы из выдачи по отдельным словам называется фильтром.
Поисковые алгоритмы сейчас пытаются определять, какие слова в какой тематике должны иметь какую частоту употребления. Поэтому с плотностью ключевых слов на вэб-страницы лучше не "перегибать палку".
Как известно, многие материалы в Интернете размножены один в один по десяткам и сотням сайтов. Это нехорошо по двум причинам:
Поэтому поисковики пытаются отследить, на каких сайтах появляется оригинальный материал, копии которого потом растаскиваются по другим сайтам. Рано или поздно поисковик засекает тот сайт, где чаще всего появляется оригинальный контент и те сайты, где чаще всего появляется контент, копированный с других сайтов.
Так как страницы с копированным неоригинальным контентом являются ненужными (с точки зрения поисковика), то поисковые системы выкидывают такие страницы из своей базы. Если Ваш сайт весь состоит только из страниц с неоригинальным контентом или большая его часть, то поисковик может решить, что весь Ваш сайт ненужен и отправить его целиком в бан.
Поэтому не следует заниматься тупым копированием чужого контента на свой сайт. Например, будьте осторожны в размещении на своем сайте скриптов, которые автоматически размещают у Вас новости с каких-нибудь других сайтов. Пусть большую часть такой страницы занимает какой-то Ваш оригинальный материал, а новости идут в колонке сбоку.
Поисковики плохо относятся к копиям Вашего контента на Вашем же сайте, когда на разных страницах Вашего сайта находится один и тот же контент, а адреса страниц при этом разные.
Например, часто встречается такая ситуация. В некоторых движках для создания блогов применяется один адрес для страницы со скрытыми комментариями к посту и другой адрес для поста с комментариями к нему в конце. Это значит, что если комментариев к посту не будет, то мы получаем две совершенно одинаковые страницы, но с разными адресами. Примерно то же самое, если доля комментариев очень мала по сравнению с объемом поста. В этом случае имеем примерно одинаковые страницы с разными адресами. Поисковым системам очень не хочется хранить у себя в базе контент такого блога дважды. Им очень хочется одну копию выкинуть нафиг. Что они и часто делают (у Яндекса фильтр АГС-17).
При этом они порой выкидывают дублированные страницы очень неудачно. Например, в приведенном здесь примере с блогом, поисковики могут выкинуть все страницы, где только одни посты. Ну, потому что там меньше объем контента, чем на страницах где есть и контент и комментарии. Но всё дело в том, что часто на страницу с комментариями можно перейти только со страницы поста. А она-то выкинута! С точки зрения поискового бота теперь на сайте появляется куча страниц, на которые нельзя никак попасть с главной страницы сайта по ссылкам. В такой ситуации поисковики могут повести себя непредсказуемо, вплоть до того, что перестать индексировать такие "оторванные" от "родителей" страницы, на которые невозможно попасть. От такого блога в индексе может остаться только одна главная страница.
Линкопомойкой называются такие страницы сайта, на которых размещено очень много ссылок на другие сайты Интернета. Такие линкопомойки могут появиться у Вас на сайте, если Вы, например, обмениваетесь ссылками с какими-нибудь каталогами. В этой линкопомойке будут находится ссылки на все те каталоги, на которые Вы ссылаетесь. Другая причина появления линкопрмойки может быть в том, что Вы создали у себя на сайте страницу со ссылками на свои любимые сайты, которые Вы любите посещать сами и рекомендуете Вашим посетителям тоже посетить их. Ведь на этих сайтах Ваши посетители тоже могут найти много чего полезного и нужного.
Но поисковые системы смотрят на это всё несколько иначе. если они видят у Вас на сайте страницу, где десятки и сотни ссылок на сайты самой разной тематики, с тематикой, которая не совпадает с тематикой Вашего сайта, то они, во-первых, считают эти ссылки нетематическими, а, во-вторых, начинают подозревать Вас или в нетематическом обмене ссылками или в размещении ссылок за деньги. И то и другое карается вылетом такой линкопомойки из индекса поисковой системы.
Таким образом, если это был взаимный обмен ссылками, то он пойдет "коту под хвост". Те, с кем Вы менялись ссылками, увидят, что их ссылка на Вашем сайте не проиндексирована и поэтому они уберут Вашу ссылку со своего сайта.
Иногда можно встретить утверждение, что если на вэб-странице размещено уже более 20 внешних ссылок, то это, якобы, уже линкопомойка. Это верно, когда кроме ссылок на странице ничего больше нет. На самом деле играет роль не количество ссылок, а их плотность и тематика.
На одной странице можно разместить и 100 внешних ссылок, но надо, чтобы каждая такая внешняя ссылка сопровождалась, как минимум 3-4 абзацами текста по тематике той страницы, куда ведет ссылка. Плюс к этому, желательно, чтобы все эти внешние страницы, на которые ведут ссылки, были как-то связаны с тематикой Вашего сайта. В этом случае поисковик будет считать ссылки уместными и тематическими. Вы как бы даете понять поисковику, что эта страница создана не для поисковых ботов, а для посетителей Вашего сайта.
Линкоферма - это группа сайтов, которые ссылаются друг на друга. Обычно в такой группе есть большой сайт-донор, которого как раз и продвигает вэб-мастер, на который ссылаются все остальные мелкие сайты-сателлиты, владельцем которых является один и тот же вэб-мастер. Таким способом сайт-донор получает дополнительную ссылочную массу и пытается поднять показвтели своей авторитетности (тИЦ, PR и др.).
Но бывают и другие конфигурации линкоферм, например, с участием разных вэб-мастеров. Одна из самых распространенных конфигураций это ссылочнон кольцо. Устроено примерно так. На сайте Aстоит ссылка на сайт B, а на сайте B стоит ссылка на сайт C, а сайт C ссылается на сайт A. В таком кольце может быть не три, а большее число звеньев. Цель участия в таком кольце, это увеличивать ссылочную массу на сайт так, чтобы это не выглядело, как взаимное линкование друг друга.
Ситуация с линкофермами очень неоднозначная. Например, если в первом примере все сайты-сателлиты находятся на бесплатных хостингах, то ссылки с таких сайтов не увеличивают авторитетность сайта-донора. Сейчас поисковики не увеличивают показатели ссылочного ранжирования за счет таких ссылок, которые могут поставить вэб-мастера сами на себя из бесплатных мест, где такие ссылки ставят все желающие. Например не учитываются ссылки со многих форумов, со многих гоостевых книг, с блогов из социальных сетей, из социальных закладок, с немодерируемых каталогов. Сайты на бесплатных хостингах приравнены к таким местам. Иначе каждый вэб-мастер мог бы наделать десятки и сотни таких мелких сайтов-сателитов из 2-3 страниц, которые ссылаются на его основной сайт.
Что будет, если сайты-сателлиты находятся на платном хостинге? Если это один и тот же хостинг и один и тот же аккаунт, то поисковики обычно обнаруживают это по единому IP-адресу всей сетке подозреваемых сайтов и тоже перестают учитывать ссылки с них друг на друга. Если все домены еще к тому же зарегистрированы у одного и того же регистратора, то по сервису whois можно определить, что владельцем всех доменов является одно и то же лицо (телефон, e-mail, а, возможно, и открытая фамилия в данных домена).
С этим всё понятно. Если система меню у Вас на сайте будет сделана через JavaScript, то все, кто отключил у себя в браузере исполнение скриптов на JavaScript, попав на Ваш сайт, подивятся на него и уйдут оттуда не зайдя ни на какую другую страницу. Также могут поступить и поисковые боты.
Не буду тут повторять еще раз содержимое статьи Еще один пинок по Flash на сайте! Читайте сами и делайте выводы, а надо ли Вам это.
Порой бывает так, что Вы смотрите через браузер на html-код какой-нибудь страницы сайта и видите там такую картину. Доля полезного контента в объеме всей страницы очень невелика, а всяких html-элементов на странице очень много. Например, очень большой объем занимает система меню. Часто большой объем кода занимает код таблиц, особенно если применяются таблицы вложенные друг в друга, когда какая-нибудь ячейка таблицы в свою очередь является таблицей и так далее.
Поисковики любят, когда на вэб-странице в основном находится полезный контент, а не дебри html-элементов. Для этого лучше отказаться от громоздких технологий, таких, как технололгия построения сайта на таблицах в пользу технологий, которые упрощают html-код на странице, типа технологии "Святого Грааля". При этом все дизайнерские элементы лучше выносить в CSS-файл.
Если Вы выбираете движок для построения своего сайта, то лучше отдать предпочтение CMS на базе div, а не таблиц. И выбрать такую CMS, в которой весь дизайн вынесен за пределы кода конкретных вэб-страниц.
Поисковики плохо относятся к динамическим страницам и индексируют их в самую последнюю очередь. Поэтому надо, чтобы на Вашем сайте не было страниц с адресами
типа такого
www.site.ru/abcd.php?item=6321&category=56
При этом количество разных параметров после знака вопроса может быть в некоторых CMS очень большим. Поисковики в первую очередь индексируют статичные страницы
с расширением htm и html, затем статичные страницы с расширением php (хотя расширение указывает на то, что такие страницы уже могут быть сборкой из отдельных
частей). А страницы, содержание которых зависит от значения переменных после знака вопроса, имеют ограничения на индексацию.
Совсем плохо, если в адрес страниц добавляется параметр сессий, типа
www.site.ru/abcd.php?sessid=6t67ftd6z56456q5pf65jgfg&prod_id=562
Дело в том, что адрес такой страницы меняется при каждом заходе на нее робота поисковика. Поисковый робот может сто раз зайти на одну и ту же страницу и увидеть сто разных адресов. С точки зрения поисковика это не просто дублированный контент в чистом виде, это уже злостный вариант дублированного контента. Если поисковик не разберется, что это одна и та же страница с разными сессиями, то санкции поисковика могут быть достаточно жесткими, так как будет сильное подозрение, что вэб-мастер неадекватен и занимается какими-то странными экспериментами по засорению Интернета.
Чтобы не было таких проблем, надо с помощью файла .htaccess и технологии rewrite создавать на сайте страницы с расширением html, чтобы поисковые боты считали их статичными страницами. Вообще, чем Ваш сайт будет более казаться сделанным "руками", тем лучше он будет индексироваться.
Если Вы не на столько продвинуты, чтобы использовать файл .htaccess и технологию rewrite, а хотите выбрать подходящую CMS для своего сайта, то выбирайте такой движок, который создает страницы с простыми статичными адресами. Вообще, советую не использовать CMS, которые применяют в своей работе базы данных MySQL и другие. Именно эти движки любят создавать адреса страниц со знаком вопроса и указанием после него всех переменных, использованных при доставании нужной информации из базы данных. Всё, что умеет делать база данных MySQL можно сделать на PHP при помощи средств работы с файлами. Не говоря уже о переносимости своего сайта на другой хостинг, но обсуждение этого уже уведет нас от нашей темы.
Эти ссылки не индексируют поисковики. Если на какую-нибудь страницу Вашего сайта ведут только редиректные ссылки, то она никогда не будет проиндексирована.
Это ошибки связанные с неправильной организацией навигации на сайте и долгой загрузкой страниц.
Сейчас уже поисковики нормально работают с фреймами. Поэтому эта ошибка не относится к ошибке SEO-раскрутки. Но остается все та же самая проблема, что если элементы навигации находятся не в том фрейме, в котором находится контент, который Вы получили из поисковой выдачи, то посетитель этого "огрызка" от Вашего сайта не сможет перейти ни на какие другие страницы сайта. Поэтому лучше не строить весь сайт на базе технологии фреймов, а применять фреймы только на отдельно взятых страницах. Или строить сайт на базе технологии плавающих фреймов, если уж без фреймов Вам никак нельзя. Или надо предусмотреть, чтобы всегда в любом тексте из "кирпичиков" страниц сайта была бы ссылка на главную страницу сайта, чтобы посетитель, нашедший "огрызок" страницы сайта через поисковик, могбы затем перейти по ссылке и увидеть весь сайт.
Неопытные вэб-мастера перегружают свои страницы картинками избыточного веса, фоновыми рисунками избыточного веса, всякой gif-анимацией и flash-роликами. В дополнение ко всему при загрузке страниц звучит музыка.
Пользователи с медленным соединением Интернета не будут ждать, когда загрузится Ваша страница. Они уйдут на другие сайты-конкуренты.
Другие пользователи могут оценить красоту дизайна, но если не найдут там полезного контента, то больше на Ваш сайт заходить не будут. На сайты заходят не для того, чтобы любоваться дизайном, а для того, чтобы найти там конкретную информацию.
Как уже говорилось в разделе ошибок SEO-раскрутки, поисковики любят, если на вэб-странице как можно больше полезного контента по отношению ко всему остальному. Поэтому и поисковики могут не индексировать такой сайт, где в кодах на странице преобладают элементы дизайна по сравнению, скажем, с оригинальным текстом.
По возможности откажитесь от использовании на сайте музыки, флэша и gif-анимации. С помощью ФотоШопа уменьшите вес графики за счет уменьшения разрешения графических файлов. Элементы дизайна выносите за пределы вэб-страницы, например, в CSS-файл.
Это методы, скорее не методы раскрутки, а методы накрутки счетчиков посещений и счетчиков показа баннеров
На первый взгляд кажется, что если Вы сделаете несанкционированную спамерскую рассылку по какой-нибудь базе e-mail адресов, то какой-то процент людей, получивших Ваши письма, зайдут на Ваш сайт. Но процент заходов будет очень маленький. Во-первых, большинство людей отправляет спамерские письма сразу в корзину не читая их. Другая часть отправляет их в корзину после начала их чтения. Третья часть отправляет их в корзину после прочтения до конца. Четвертая часть оставляет эти письма на всякий случай на будущее и потом благополучно забывает о них. Многие люди принципиально не переходят по ссылкам в спамерских письмах, так как опасаются вирусов, особенно блокираторов Windows. Из тех же, кто переходит по ссылкам из спамерских писем, очень велика доля нецелевого трафика. Это и просто люди, которым скучно и нечем заняться. И есть люди, которые будут искать у Вас на сайте раздел обратной связи и контактов, чтобы обругать Вас за спамерскую рассылку.
Система Активной Рекламы (САР) не дает целевого трафика на Ваш сайт. Такие системы раскрутки сайта применяются в основном для накручивания счетчиков посещений сайта для обмана заказчика, который заказал раскрутить свой сайт, или для накручивания счетчика показа дорогого баннера на своем сайте, если за один показ баннера платят больше, чем затраты на одно посещение сайта серфером.
Серферам, посещающим Ваш сайт в САР, обычно до "лампочки" тематика Вашего сайта. Многие серферы используют системы автосерфинга, то есть они Ваш сайт даже и не видят!
На очень посещаемой странице одного сайта устанавливается плавающий фрейм, в который подгружается другой сайт. Обычно такой плавающий фрейм имеет размер с точку или нулевой размер. Метод обычно применяется для бесплатной накрутки счетчика плохо посещаемого сайта. Разумеется, что ни о какой раскрутки тут речи и не идет.
Мета-тэг keywords это мета-тэг, который ни на что не влияет. Его можно не использовать.
Обычно его сейчас используют вэб-мастера вместо записной книжки, куда пишут те ключевые слова и фразы, по которым они планировали раскрутку данной страницы. Затем, по мере раскрутки этой страницы, они корректируют этот список, сравнивают списки разных страниц, чтобы исключить конкуренцию при раскрутке двух разных страниц своего сайта по одной и той же ключевой фразе.
Но в принципе все это можно проделывать в бумажном блокнотике или в Excel.
Мета-тэг descriptions пока еще рекомендуется использовать. Некоторые поисковики используют текст из этого мета-тэга при описании ссылок в поисковой выдаче.
Тэг title обязателен для использования. Это заголовок всей страницы. Поисковики уделяют этому тэгу особое внимание. Тематика вэб-страницы должна совпадать с текстом в тэге title. Длина текста в этом тэге может быть любой, но большинство поисковиков берут в индекс только первые 80 символов, а всё остальное отбрасывают. Поэтому писать очень длинный заголовок не имеет смыслв. Наконец, некоторые поисковики используют текст из этого тэга в качестве текста ссылок в своей поисковой выдаче. Поэтому отсутствие у вэб-страницы этого тэга может озадачить поисковик.
Эти тэги играют маленькую роль, но всё же играют! Поэтому тэги заголовков разделов всё же лучше использовать и размещать там текст с ключевыми словами.
Имейте в виду, что теоретически поисковики считают тэг h1 более важным, чем h2, а h2 более важным, чем h3 и т.д. Но также есть данные о том, что некоторые поисковики перестали усиливать релевантность страницы запросу, если фраза запроса находится в тэге h1. Это до конца не проверенные данные. Но некоторые вэб-мастера, на всякий случай, стали вместо тэга h1 использовать тэг h2.
Когда-то поисковики обращали внимание на эти тэги, особенно на тэг b, в связи с тем, что считалось, что если вэб-мастер выделил какие-то слова и фразы в тексте своей вэб-страницы, особенно, если выделил их жирным шрифтом, то значит это очень важные слова и фразы для тематики страницы. Но с появлением технологии CSS этим стали злоупотреблять, а именно выделять, например, тэгами b на странице всё что угодно, а в CSS-файле прописывать, чтобы посетитель сайта не видели никаких выделений.
Поэтому эти тэги уже не играют прежней роли для раскрутки сайта.
Ходят слухи, что к тэгу strong это не имеет отношения. Якобы, потому, что он не был так "заезжен" вэб-мастерами, как тэг b по той причине, что тэг strong упоминается не во всех учебниках по HTML из-за того, что он фактически является дублирующим для тэга b. Поэтому, якобы, многие вэб-мастера и не подозревали о существовании тэга strong. Но это всё непроверенная информация.
Эти "крутые" методы раскрутки применяются профессиональными поисковыми спамерами. Поисковые системы постоянно ведут борьбу против таких методов раскрутки. Но спамеры постоянно совершенствуют эти методы. Если такие методы пробуют применить новички, то по неопытности их сайт может моментально уйти в бан с вероятностью 100%.
Дорвеи, это такие вебстраницы, которые специально оптимизированны под определенные поисковые запросы. Вообще говоря, использование дорвеев не является чем-то "криминальным" при создании сайта, его функционировании и раскрутке.
Но поисковые спамеры могут автоматически создавать целое семейство таких дорвеев, взаимно перелинкованных друг с другом, в которых содержатся тексты предназначенные не для чтения людей, а для поисковых роботов. А чтобы живые люди ни о чем не догадались, на этих страницах работает автоматический редирект, который мгновенно перебрасывает посетителя с дорвея на обычную вебстраницу.
Сложность применения таких спамерских дорвеев для новичка состоит в том, что поисковые системы научились очень хорошо распознавать такой вид нечестной раскрутки сайта. Поэтому новичку в этом деле нужно изобретать свой совершенно новый способ генерирования и применения дорвеев, такой способ, о котором поисковые системы еще ничего не знают. Искать программное обеспечение в Интернете практически бесполезно, так как в Интернете никогда не выкладывают такие программы генерирования спамерских дорвеев, о результатах работы которых еще не знают поисковики. Это связано с тем, что спамерские дорвеи чаще всего используются в коммерческих целях для перенаправления трафика на специальные продающие страницы. Естественно, что если поисковые системы пока еще не банят сайт с такими дорвеями, то хозяин такого сайта никогда сам добровольно не только не выложит в Интернете своё программное обеспечение, но и не будет продавать его за деньги. Его задача заключается в том, чтобы его метод создания дорвеев массово не тиражировался в Интернете на других сайтах. Иначе поисковики очень быстро разоблачат этот метод, и тогда трафик на продающую страницу его сайта прекратится, то есть пострадает его бизнес.
Поэтому новичкам не следует проводить какие-то эксперименты на своем сайте с программным обеспечением по генерированию дорвеев, которое можно бесплатно скачать в Интернете или купить его там. Если очень хочется экспериментов по раскрутке с помощью дорвеев, то купите себе новый домен с таким именем, которое Вам не жалко потерять, и проводите на этом домене все свои эксперименты с дорвеями.
Клоакинг, это когда посетителям сайта показывают разный контент, в зависимости от некоторых параметров этого посетителя. Чаще всего такими параметрами посетителя является его IP-адрес или куки. Сам по себе клоакинг не является какой-то "криминальной" технологией в сайтостроении. Вы встречаетесь с этой технологией, когда, например, заходите на какой-нибудь сайт и видите на нем погоду в своем городе, а не в том городе, где хостится этот сайт. Это и есть клоакинг, так как разным посетителям сайта показывают разный контент.
Но поисковые спамеры могут создавать такие скрипты, которые обычным посетителям показывают нормальный человеческий текст, а поисковым ботам показывают текст сильно оптимизированный нужными ключевыми словами. Порой этот текст бывает бессмысленный и не преназначен для чтения человеком. Поисковая система индексирует такую страницу и начинает по нужным ключевым словам показывать её на верхних позициях поисковой выдачи. В результате, пользователи поисковой системы, набирающие в поисковике эти ключевые слова, начинают часто посещать такую страницу.
Сложность применения такого спамерского клоакинга для новичка состоит в том, что поисковые системы научились очень хорошо распознавать такой вид нечестной раскрутки сайта. Поисковые боты постоянно меняют способы своего захода на сайты. Они могут зайти на клоакинговую страницу двумя такими способами, что обнаружат два разных контента по одному и тому же адресу. Если при этом окажется, что один из этих контентов нацелен исключительно на способ захода поискового бота, то этот спам будет тут же разоблачен.
Новичкам не рекомендуется проводить на своем сайте эксперименты по раскрутке своего сайта таким методом. Вероятность разоблачения неопытного клоакинщика очень велика.
...
(Продолжение следует)
Почему Вы тратите столько сил, времени и денег на раскрутку своего сайта, а результат получается совсем мизерный. В то время, как другие вебмастера тратят на раскрутку своего сайта совсем немного сил, времени и денег, а результат получается колоссальным. Бывает, что некоторые вебмастера совсем не озабочены раскруткой своего сайта, и тем не менее, каким-то чудом их вебстраницы оказываются в первой десятке поисковой выдаче по, казалось бы, достаточно конкурентному поисковому запросу. Дело в том, что у разных сайтов имеется разная репутация в поисковых системах. Поисковики относятся к разным сайтам с разной степенью доверия. Эта степень доверия зависит от всего прошлого и нынешнего поведения сайта, а точнее от поведения его вебмастера.
Читать далее >>>
Очень часто вебмастер задается таким практичным вопросом: "А сколько нужно иметь входящих ссылок на какую-нибудь страницу своего сайта, чтобы повысить PR этой страницы?" Используя формулу вычисления PR и зная свойства ссылающихся страниц, можно сделать оценку нужного количества ссылок. Это количество входящих ссылок экспоненциально растет при росте положительной разницы между желаемым значением PR и тем PR, который имеет страница в данный момент. И очень существенно количество входящих ссылок зависит от свойств ссылающихся страниц. Если PR Вашей страницы маленький, то для его повышения бывает достаточно всего одной единственной ссылки со страницы с высоким значением PR.
Читать далее >>>
Иногда под словосочетанием "раскрутка сайта" понимают раскрутку только в поисковых системах. На самом деле существует много других способов раскрутить свой сайт, в том числе даже такой сайт, который попал в бан у поисковых систем. Причем по финансовым затратам эти способы могут обойтись даже дешевле, чем раскрутка в поисковых системах, ибо настоящая раскрутка в поисковых системах требует постоянных денежных вложений.
Читать далее >>>
------------------
Автор статьи: Евгений Миронов.
[0] Основы раскрутки сайта
[1] Ошибочные способы раскрутки сайта
[1a] Дорвеи
[1b] Клоакинг
[2] Каталоги сайтов
[3] Копирование контента - основная причина бана
[4] Формула PR Гугла
[5] Некоторые мифы о PR Гугла
[6] Сколько ссылок повышают PR
[7] На что смотрят поисковые системы
[8] Что поисковые системы игнорируют на сайте
[9] Влияние адресов страниц на раскрутку
[10] Значение HTML-разметки для раскрутки сайта
[11] Трастовый сайт
[12] Классификация методов раскрутки сайта
[13] Политика линкования