ИКС Яндекса, это ИКСПЯ или ИКССЯ?


Общие сведения об ИКС Яндекса


В конце августа 2018 года Яндекс представил новый показатель для сайтов, названный ИКС, что значит Индекс Качества Сайта. Этот индекс, как бы, будет вместо тИЦ (тематический Индекс Цитирования), который перестали пересчитать более года назад.


На конец августа 2018 года самые большие показатели ИКС имели сайты Вконтакте и YouTube, по 340'000. Это больше, чем ИКС у Гугла равный 120'000 для google.com и 130'000 для google.ru. ИКС своих сайтов Яндекс принципиально не показывает.


Пока ИКС для поддоменов точно такой же, как и для домена. Но не всегда. Например, у всех Народных сайтов на поддоменах домена narod.ru ИКС разный. У некоторых поддоменов Гугла ИКС не считается, например, в конце августа 2018 неизвестен ИКС у translate.google.com. Видимо, в будущем у всех доменов и их поддоменов ИКС будет разным.



ИКС, это следствие или причина?


Яндекс утверждает, что ИКС не является причиной более или менее высокой позиции сайта в поисковой выдаче. То есть при формировании поисковой выдачи, алгоритм ранжирования результатов не учитывает ИКС, не смотрит на ИКС, и, вообще, значение ИКС не входит в формулу, которая определяет, куда попадет страница сайта в поиске.


Яндекс утверждает, что это, наоборот, при подсчете ИКС учитывается, какой трафик получает сайт. То есть в формулу расчета ИКС могут входить параметры сайта из поисковой выдачи.


Поэтому накрутка ИКС может не привести к увеличению органического трафика сайта из поиска, так как алгоритм поиска ничего не знает о существовании какого-то ИКС. А вот, наоборот, если органический трафик на сайт увеличится, то это обязательно увеличит его ИКС. Ибо в формулу ИКС должны входить показатели поискового трафика сайта.


Таким образом, ИКС, это не причина того, что какой-то сайт имеет очень высокие или, наоборот, очень низкие показатели в поисковой выдаче. А, наоборот, очень маленький ИКС или очень большой ИКС являются следствием, в том числе и того, что на сайт идет маленький или большой трафик из поиска.


Итак, ИКС, это интегральная пузомерка, которая является следствием того, что с сайтом или всё плохо или, наоборот, всё хорошо, а не причиной того, что с сайтом всё плохо или, наоборот, всё хорошо.



Какова истинная цель Яндекса


Самым непонятным во всей этой истории с ИКС является то, какую цель преследует Яндекс, сделав общедоступной информацию об ИКС. Причём, информация об ИКС доступна не только о своём сайте, но и о других сайтах.


Официально, конечно, Яндекс объяснил, зачем он ввел новую пузомерку и сделал информацию о ней общедоступной. Но мы эту версию даже повторять тут не будем. Нас интересуют истинные причины такого поведения Яндекса, а не то, что Яндекс вбрасывает публике.


Вопрос этот далеко не праздный. Поведение Яндекса является более чем странным.



При чем здесь бизнес продажных ссылок


Дело в том, что ИКС это царский подарок индустрии продажи ссылок. Бизнес по купле-продаже ссылок фактически в Рунете уже умирал. Весь этот бизнес опирался на такие показатели сайта, как PR Гугла и тИЦ Яндекса. Чтобы объяснить покупателям ссылок, почему ссылка с одного сайта имеет цену в два раза больше, чем ссылка с другого сайта, биржи по продаже ссылок тыкали покупателя носом в PR и тИЦ этих сайтов. Таким образом, PR и тИЦ были существенными показателями качества продаваемых товаров на этих ссылочных биржах.


Но этот бизнес наносил урон качеству сайтов и качеству поисковой выдачи. В самом деле, зачем работать над качеством своего сайта, когда можно просто накупить на свой сайт большое количество внешних ссылок. В результате в топ выдачи оказывались плохие сайты с большим числом купленных внешних ссылок. А хорошие качественные сайты, которые не покупали ссылки, порой в поиске занимали невысокие места по сравнению с покупателями большого количества ссылок.


Поисковые системы стали бороться против этого явления. Они наказывали своими фильтрами и пессимизацией в выдаче тех, кто покупал такие ссылки и тех, кто продавал такие ссылки.


Казалось бы, решением проблемы должен стать полный отказ от учета ссылок на сайт при формировании поисковой выдачи. Но по причинам, описанным в этой статье нашего блога, полностью отказаться от учета внешних ссылок просто невозможно.


Тогда Гугл решил убить индустрию продажи ссылок тем, что он перестал показывать PR (или то, чем он заменил показатель PR). И это имело успех. Индустрия продажи ссылок в Буржуйнете практически сдохла.


Но в Рунете Яндекс продолжал показывать тИЦ сайтов, и поэтому индустрия продажных ссылок продолжала существовать. Яндекс даже перестал пересчитывать тИЦ сайтов, но продолжал показывать этот устаревший индикатор публике. И поэтому индустрия продажных ссылок продолжала существовать и формировать свои цены.


Когда Яндекс перестал пересчитывать у сайтов их тИЦ, то в Рунете появились конторы, которые стали предлагать альтернативы этого показатели в виде разных показателей траста сайта. Например, как этот сайт. Но все эти сайты никогда не были так авторитетны, как Яндекс или Гугл и поэтому эти их эксперименты по замене тИЦ нельзя назвать удачными. Кроме того, зачем изобретать новые индикаторы, если всё ещё есть понятный старый добрый тИЦ.


И вот теперь, вместо того, чтобы последовать примеру Гугла и убрать этот тИЦ с глаз долой и ничего не показывать взамен, Яндекс, убрав тИЦ, тут же начинает публичный показ новой пузомерки ИКС. И совсем не важно, что этот ИКС имеет маленькое отношение к теме позиций сайта в поисковой выдаче. Ссылочные биржи всё равно возьмут этот ИКС за инструмент ценообразования на ссылки. Ведь и тИЦ в своё время имел маленькое отношение к поисковой выдаче, он только ранжировал сайты в каталоге Яндекса, но его, тем не менее, взяли за основу ценообразования при продаже ссылок.


Ну, придумали они в Яндексе какой-то новый показатель качества сайта, ну и смотрели бы на него только сами, как Гугл. Зачем показывать его всем подряд? Им что, денег что ли не надо? Ведь по идее, все эти покупатели ссылок после смерти ссылочных бирж должны были притащить свои деньги в Яндекс-Директ.


Да, именно в Яндекс-Директ, а не веб-дизайнерам и копирайтерам, так как улучшение дизайна сайта, его юзабилити и текстов на нём еще не гарантирует усиление поведенческих факторов и, как следствие, не гарантирует увеличение трафика из поиска.


Ведь чем подкупала покупка ссылок? Да, своей формальной простотой. Заплатил деньги и гарантировано получил трафик. Не надо изучать посетителей своего сайта, их психологию, думать, что им нужно и что не нравится на сайте. При использовании Яндекс-Директа та же самая философия быстрого получения гарантированного трафика без каких-то сложных и долгих работ с сайтом без гарантии трафика. Поэтому клиенты ссылочных бирж, это готовые клиенты Яндекс-Директа, а не веб-дизайнеров и копирайтеров.


Именно поэтому поведение Яндекса выглядит очень странным.



Является ли ИКС Яндекса ИКСПЯ?


Теперь включаем логику. Допустим, Яндекс не интересуют дополнительные деньги. Допустим, Яндекс ввел ИКС и сделал его общедоступным просто из-за любви к искусству, чтобы показать всем силу своего интеллекта, и не более.


Давайте теперь думать, как Яндекс и рассуждать как Яндекс в модели честного объективного Яндекса, для которого все сайты равны.



ИКС и вовлеченность сайта в сервисы Яндекса


В этом случае получается, что такие вещи, как установка на сайте Яндекс-Метрики не должна влиять на ИКС сайта. Вообще, участие сайта в разных сервисах Яндекса не должно влиять на его ИКС никоим образом.


Ведь при честном подходе и равном отношении ко всем сайтам, учет данных Метрики на одном сайте будет несправедливым по отношению к тому сайту, который не установил у себя Метрику.


Представьте себе, что два сайта имеют одинаковый трафик из поиска Яндекса. Но на одном из этих сайтов стоит Метрика. И она показывает дополнительный очень большой трафик на сайт из поиска Гугла, из социальных сетей и по ссылкам с других сайтов. И этот трафик очень качественный, мало отказов, большое количество просмотренных страниц, большое время пребывания людей на сайте.


Спрашивается, как Яндекс получит те же самые данные по трафику, пришедшему из Гугла, из других сайтов и из соцсетей для того сайта, который не установил у себя Метрику? Если этот сайт, вообще, не зарегистрирован ни в одном сервисе Яндекса? Ни в Яндекс-Справочнике, ни в Яндекс-Дзен, вообще, нигде там, где Яндекс мог бы получить какую-то дополнительную информацию о трафике на этот сайт из других источников трафика, кроме поиска Яндекса.


Многие люди, которые уже продолжительное время находятся в теме SEO, порой уже не представляют, что есть очень много сайтов, на которых Метрика не установлена. Например, на FaceBook не стоит Метрика Яндекса, значит, Яндекс ничего не знает о трафике на какой-нибудь сайт с ФейсБука, если на том сайте не стоит Метрика. Метрика не установлена ни на одном сервисе Гугла. Значит, если на сайте нет Метрики, то Яндекс ничего не знает о трафике на сайт с сервисов Гугла.


Точно также в Рунете есть много сайтов, на которых Метрика тоже не установлена. Поэтому Яндекс ничего не подозревает о трафике между такими сайтами. А этот трафик между такими сайтами может быть не малым по сравнению с трафиком из поиска Яндекса, с учетом того, что хозяева этих сайтов не озабоченные.


Из-за того, что владельцы таких сайтов, как правило, не озабочены, часто эти сайты, с одной стороны, имеют не слишком высокие позиции в поиске из-за своих "грехов", типа отсутствия мобильной версии, отсутствия title и description и т.п. А, с другой стороны, эти сайты могут быть очень популярными из-за очень хороших оригинальных авторских текстов без всякого рерайта. Вы можете найти на таких сайтах то, что не найдёте больше нигде. Их материалы ещё не успели отрерайтить на других сайтах.


Спрашивается, если Яндекс одинаково относится ко всем сайтам при подсчете ИКС, то, как он считает ИКС у таких сайтов, которые не зарегистрированы ни в одном сервисе Яндекса?



Данные для ИКС из поиска Яндекса


Если задуматься над этим, то самый честный вариант подсчета ИКС состоит в уравнивании источников данных для всех сайтов. То есть, если какие-то данные Яндекс может получить только из Метрики и больше никак, то эти данные в расчете ИКС не должны участвовать, ибо непонятно, что в формулу ИСК надо поставлять, когда у Яндекса нет таких данных о сайте.


Таким образом, в модели честного Яндекса получаем, что формальная регистрация своего сайта в сервисах Яндекса ничего не дает в плане увеличения ИКС сайта. Яндекс должен учитывать в формуле ИКС только те данные, которые он может получить со всех сайтов, в том числе и с сайтов, которые не зарегистрированы ни в каком из сервисов Яндекса.


Это такие данные, как:

  • контент сайта (тексты, картинки, аудио и видео на сайте), в том числе и метатеги вебстраниц;
  • ссылки на сайт (внешние и внутренние, seo или естественные);
  • ссылки с сайта на другие сайты, на сколько они уместные и логичные;
  • количество страниц сайта;
  • трафик на сайт из поиска Яндекса;
  • какие страницы сайта получают трафик с поиска Яндекса, а какие нет;
  • сколько времени проводит пользователь с поиска Яндекса на сайте, прежде чем вернуться обратно в поиск;
  • есть ли мобильная версия сайта;
  • сколько времени грузятся страницы сайта;
  • какие в Интернете оставлены отзывы про сайт;
  • есть ли сообщества в соцсетях, посвященные сайту;
  • и т.п.


Все эти данные сайта Яндекс может получить о любом сайте, который принимает участие в поиске Яндекса.


Если сайт неизвестен поисковой системе Яндекса, то ИКС для него не считается. Можете сами проверить это на каком-нибудь очень качественном сайте из американской глубинки, который получает большой трафик с Гугла и Яху.



Нужна ли регистрация в сервисах Яндекса для роста ИКС


Это не значит, что совсем не нужно регистрировать свой сайт в сервисах Яндекса. Речь идет о том, что формальная регистрация в сервисах Яндекса никак не поднимает значение ИКС в модели честного Яндекса.


Другое дело, если такая регистрация будет использована вебмастером с пользой для самого сайта. Например, зарегистрировавшись в Яндекс-Вебмастер можно воспользоваться его сервисом ускорения загрузки мобильных страниц "Турбо-Страницы". Часть страниц сайта будут грузиться быстрее. Это чуть-чуть увеличит значение ИКС, так как, скорее всего, пусть даже и с очень маленьким весовым коэффициентом, но в ИКС должна учитываться средняя скорость загрузки страниц. Все поисковики считают высокую скорость загрузки страниц признаком качества сайта по той причине, что часть пользователей не ждёт окончания загрузки долгогрузящейся страницы и уходит с сайта.


Возможно, именно поэтому некоторые исследователи ИКС наблюдают некоторую корреляцию между величиной ИКС и присутствием сайта в некоторых сервисах Яндекса. Это, скорее всего, в модели честного Яндекса объясняется именно тем, что вебмастера этих сайтов воспользовались информацией этих сервисов для улучшения своего сайта.


То же самое, что и о сервисах Яндекса, можно сказать и об асессорах Яндекса и его толокнянах. В рамках модели честного Яндекса оценки асессоров и толокнян не должны влиять на ИКС сайта, так как таких оценок нет для всех сайтов. Или, по крайней мере, нет оценок асессорами и толокнянами для всех сайтов одновременно за один месяц. (ИКС обещают пересчитывать ежемесячно.)


Итак, в рамках модели честного Яндекса ИКС, на самом деле, является ИКСПЯ, то есть Индекс Качества Сайта в Поисковике Яндекс (или в Поиске Яндекса).



Является ли ИКС Яндекса ИКССЯ?


Но если ИКС является ИКСПЯ, то это никак не объясняет нам, почему всё таки Яндекс сделал информацию об этом индексе открытой. У Гугла, наверняка, есть подобный индекс, но он не распространяет информацию о нем для всех, чтобы не возрождать индустрию продажи ссылок.


Есть другая гипотеза. Это гипотеза о том, что, на самом деле, Яндекс более хитрый, чем честный.


В рамках модели хитрого Яндекса ИКС является не ИКСПЯ, а ИКССЯ, то есть Индекс Качества Сайта в Сервисах Яндекса. (Уловили разницу между одним сервисом Яндекса, который поиск, и всеми другими сервисами Яндекса?)



Подозрения относительно ИКС


Да есть такое подозрение и оно очень сильное. На некоторую корреляцию между величиной ИКС и вовлеченность сайта в сервисы Яндекса (Директ, Справочник и др.) первыми обратили внимание некоторые форумчане на SearchEngines уже в первый день после появления ИКС в открытом виде.


В блоге сервиса 1PS об этом говорится чуть ли не как о доказанном факте: "В учет идут все сервисы Яндекса - от Дзена до Яндекс.Карт. И теперь вы просто обязаны во все эти сервисы попасть...". В статье ссылаются на то, что Яндекс в своём сообщении об ИКС прямо указывает, что информацию о сайтах он берет из своих сервисов (во множественном числе, а не в единственном) и что он хочет этим индексом оценивать даже полезность бизнеса, стоящего за сайтом, для пользователей Интернета. Такая полезность для пользователей Интернета во многом оценивается именно через сервисы Яндекса.


Или, например, на сайте МегаИндекс автор статьи про ИКС и три комментатора говорят о том, что на величину ИКС оказывает влияние type-in трафик. То есть такой трафик, когда посетитель сайта не переходит на сайт по ссылке, а сам вбивает доменное имя сайта в строку браузера. Но сведения про такой трафик Яндекс может получить только или если на сайте установлена Яндекс-Метрика, или если посетитель сайта сидит в Яндекс-Браузере.


Есть много других примеров, которые усиливают подозрение, что Яндекс при вычислении ИКС использует такие данные своих сервисов, которые нельзя получить без этих сервисов. Если это так, то спрашивается, что подставляется в формулу ИКС при вычислении ИКС для сайтов, которые не зарегистрированы в сервисах Яндекса?


Тут два варианта.



Эвристика или наказание


Или в формулу вычисления ИКС подставляется "средняя температура по больнице" или сайты, не зарегистрированные в сервисах Яндекса (или зарегистрированные в маленьком числе этих сервисов), получают пенальти от Яндекса в виде понижения их ИКС (за свою скрытность).


Первый вариант представляется очень маловероятным. Слишком велика дисперсия "температуры по больнице". Всякий, кто раскручивал не один, а несколько сайтов знают, что органический трафик от Гугла и Яндекса могут быть одинаковыми, а могут различаться более чем в 5 раз в ту или другую сторону. Из соцсетей трафика на сайт может не быть совсем, а может этот трафик составлять более 80% от всего трафика на сайт.


Поэтому подстановка "средней температуры по больнице" в формулу ИКС может привести к грандиозным ошибкам в величине ИКС для сайтов, которые не зарегистрированы в сервисах Яндекса или зарегистрированы в маленьком количестве этих сервисов.


Хотя тут всё снова упирается в цели Яндекса. Возможно, Яндексу наплевать на такие сильные неточности в вычислении ИКС. Может для Яндекса важен только сам факт того, что есть такая пузомерка, значение которой может обозревать сеошная публика. А может быть сайтов, которые не установили у себя Метрику и не зарегистрированы в паре сервисов Яндекса, уже так мало, что Яндексу наплевать на этот маленький процент таких сайтов. Возможно, динамика такова, что Яндекс прогнозирует, что через 5 лет таких сайтов уже не будет. Тут разные могут быть причины того, что Яндекс может сознательно неправильно вычислять ИКС некоторых сайтов.


Но всё таки мне кажется, что вариант "средней температуры по больнице" в модели хитрого Яндекса менее вероятен, чем вариант низкого ИКС для "еретиков", пренебрегающих "храмами" Яндекса.



Цель Яндекса


Яндекс своим публичным ИКС, как бы, даёт понять веб-мастерам, в каких "храмах" надо присутствовать (и кому "молиться"). Как минимум, Яндекс желал бы, чтобы все сайты Рунета были бы зарегистрированы в Яндекс-Вебмастер и установили бы у себя Метрику. А, как максимум, чтобы все сайты ещё были бы зарегистрированы минимум десятке других сервисов Яндекса. В первую очередь, в таких сервисах, как Директ, Справочник, Карты, Деньги, Касса, Аудитории, Реклама, Маркет, Доставка и в подобных сервисах, предназначенных для ведения бизнеса.


В результате Яндекс идет по пути создания мифа о том, что присутствие сайта в сервисах Яндекса каким-то образом влияет на отношение Яндекса к сайту. (Ну, наверное, действительно влияет на отношение, но не на позиции в поисковой выдаче.) Причем, этот миф создается не столько Яндексом, сколько SEO-сообществом, их исследованиями пузомерки ИКС. А дело Яндекса, это всего лишь сделать пузомерку зависимую от участия сайта в сервисах Яндекса и вбросить эту пузомерку в СЕО-сообщество.


Такой способ привлечения вебмастеров в свои сервисы более эффективный, чем просто прямо пригласить их туда. Например, некоторые вебмастера опасаются устанавливать на своих сайтах Метрику по той причине, что считают это методом шпионажа Яндекса за аудиторией сайта. Но они могут изменить своё решение, если одна только установка Метрики повышает трастовость сайта в глазах Яндекса. Они ещё более охотнее сделают это, если поверят, что ИКС как-то влияет на позицию сайта в поиске Яндекса.


Зачем Яндексу это нужно?



Война с Гуглом


Это диктует логика его войны с Гуглом. Яндекс уже несколько лет подряд проигрывает войну Гуглу. Доля русскоязычных поисковых запросов в Гугле растёт, а в Яндексе падает. И Яндекс ничего не может с этим поделать. Стандартные методы конкурентной борьбы не помогают. Гугл владеет этими методами лучше Яндекса.


Проигрыш конкурентной борьбы Гуглу грозит Яндексу потерей доходов от своего самого любимого источника доходов, от Директа. Просто ситуация может обернуться даже тем, что если не показывать никакой пузомерки SEO-сообществу и убить рынок продажных ссылок, то все покупатели продажных ссылок окажутся не в Директе, а в ЭдВордсе. В общем, потеря доходов от индустрии продажи ссылок для Яндекса не такая большая, как общая потеря доходов от поражения в конкурентной борьбе с Гуглом.


Сильная сторона Гугла, это его многочисленные сервисы, благодаря которым Гугл очень хорошо знает аудиторию Интернете, в том числе и аудиторию Рунета. Яндексу просто необходимо вовлечь свою аудиторию в свои сервисы как можно больше, чтобы как следует изучить её и её потребности.


Особенно важным для Яндекса является присутствие в его сервисах сайтов, за которыми стоит какой-то реальный бизнес. Ибо это очень платежеспособная аудитория. Её и её потребности нужно изучить в первую очередь. Именно поэтому в заявлении Яндекса идут намёки на то, что Яндекс хотел бы с помощью ИКС оценивать не только сами сайты, но и бизнес, стоящий за ними.


Поэтому есть и такая версия про хитрый Яндекс, что ИКС, это на самом деле ИКССЯ. И что вбрасыванием нужной информации в SEO-сообщество, Яндекс пытается манипулировать вовлеченностью сайтов в свои сервисы.


Какая из двух версий (честный Яндекс и ИКСПЯ или хитрый Яндекс и ИКССЯ) более правильная, покажет время.



Вместо заключения


Выводов никаких по этой статье не делаю и вместо заключения просто расскажу о своих наблюдениях значений ИКС.


На своих сайтах заметил только одну корреляцию. ИКС коррелирует с отношением количества трафика с Яндекса к количеству всех страниц в поиске Яндекса.


Примерно это выглядит так. Есть два сайта. На первом посещаемость около 100 в день с поиска Яндекса и количество страниц в индексе Яндекса около 2500. Отношение трафика к числу проиндексированных страниц примерно 0.04. На втором посещаемость около 30 с поиска Яндекса и количество станиц в индексе 42. Отношение трафика к числу проиндексированных страниц тут уже примерно 0.71. При этом ИКС второго сайта на порядок больше, чем ИКС первого сайта.


Кроме того, трафик с поиска Яндекса на первом сайте идет практически только примерно на 120 страниц, то есть около 4% от всех страниц в индексе Яндекса. Все остальные страницы этого сайта для поисковой системы Яндекса являются, как бы, бесполезным ненужным балластом. В то время, как на втором сайте трафик с Яндекса получает примерно 20 страниц, то есть около 50% всех проиндексированных страниц. Возможно, это тоже играет роль при подсчете ИКС.


В любом случае нужно будет посмотреть, можно ли как-то на первом сайте уменьшить число страниц, которые совсем не получают трафик, не только от Яндекса, но и от Гугла и из соцсетей и с других сайтов. Нужно будет решить, как правильно сократить число страниц. Тут три варианта:

  • Просто уничтожить страницу.
  • Объединить несколько страниц в одну страницу.
  • Через файл robots запретить Яндексу индексировать эти страницы.


Если будет какой-то результат, то обязательно напишу об этом.



------------------

Автор статьи: Евгений Миронов.


---------------

Вы дочитали статью до конца? Если да, то Вы молодец!
Эта статья может Вам ещё пригодиться (или весь этот сайт).
Быстро и удобно можно сохранить ссылку на эту статью через эти кнопочки социальных сетей.

Сохрани ссылку на эту статью в своей любимой социальной сети!

Оставить комментарий

Почему падает посещаемость сайта?

Почему падает посещаемость сайта?

Хорошо известно, что если прекратить постоянно заниматься раскруткой своего сайта, то посещаемость сайта из поисковых систем начинает постепенно падать. Это явление имеет две основные причины:

  • У поисковиков меняются алгоритмы формирования поисковой выдачи. Поэтому старые простые методы оптимизации под ключевые слова и фразы, которые Вы когда-то уже применили, перестают работать. (Правда, есть некоторая вероятность, что при этом какие-нибудь другие страницы Вашего сайта выйдут в ТОП-10 по каким-нибудь совершенно другим запросам.)
  • Ваши конкуренты не дремлют. Даже, если не меняются поисковые алгоритмы, Ваши конкуренты создают более лучшие веб-страницы, чем у Вас, и с более качественным ссылочным ранжированием. А при изменении алгоритмов поисковой выдачи, тем более, они сразу реагируют и проводят нужную работу в направлении улучшения своих позиций в поисковой выдаче по тем запросам, по которым Ваш сайт откатился назад.


Это давным-давно всё понятно.


Но в последнее время очень многие веб-мастера начали наблюдать снижение поискового трафика на свой сайт, даже если они активно занимаются оптимизацией своего сайта под поисковые системы. Причем, речь идет о чисто "белой" оптимизации без всяких покупных ссылок и без накруток поведенческих факторов.


Мало того, идет снижение не только SEO-трафика, но и других видов трафика.


И самое убойное то, что, казалось бы, более удачливые конкуренты, которые обогнали Вас в позициях по поисковой выдачи, тоже жалуются на проседание трафика на свои сайты.


Эта "чума" потихоньку началась примерно в 2012-2013 годах и очень явно усилилась в 2014 году.


У этого явления есть объяснение.


Дело в том, что по сравнению с тем, что было лет 10 назад в 2004 году, у нас в Рунете резко изменилось соотношение между темпами прироста русскоязычных пользователей Интернета и темпами прироста русскоязычных сайтов. Давайте посмотрим на два следующих графика.


Первый график показывает, как происходил рост регистрации доменных имен в зоне RU.



Понятно, что этот график не совсем показывает рост сайтов на русском языке. Ведь есть еще зона SU, а в последние годы и кириллические зоны (РФ и др.). Есть русскоязычные сайты в зонах COM, ORG, INFO, BIZ, NET, UA и в других. Кроме того, часть зарегистрированных доменов не используется под сайты.


Тем не менее, по порядку величины этот график примерно отражает рост числа русскоязычных сайтов, так как подавляющее большинство русскоязычных сайтов всё-таки находится в зоне RU, и подавляющее большинство доменов регистрируется всё-таки для создания сайтов.


А это график того, как примерно в те же самые годы происходил рост российской аудитории Интернета.



Понятно, что этот график тоже учитывает не всю русскоязычную аудиторию. Есть еще Украина, Белоруссия, Казахстан, Израиль, Прибалтика и др. страны с относительно большой долей русскоязычного населения.


Но, тем не менее, большинство русскоязычного населения проживает в России и поэтому данные этого графика можно считать базовыми. В других странах с относительно большой долей русскоязычного населения аудитория Интернете в эти годы тоже росла с небольшим отставанием или опережением от России.


Нас сейчас больше интересует на втором графике плавная кривая красного цвета. Она показывает относительный прирост числа пользователей Интернета в процентном соотношении. Хорошо видно, что эта кривая падает. То есть, хотя число пользователей Интернета всё время растет, но темпы прироста падают.


Понятно, что темпы роста числа пользователей Интернета в России не могут не только расти, но и даже оставаться долгое время постоянными. Дело в том, что у аудитории Интернета есть естественный ограничитель. Это население всей России. Аудитория Интернета в России не может превышать всё население России.


Значит, рано или поздно, но количество пользователей Интернета в России выйдет на насыщение. И дальнейший прирост будет очень мизерным. Он будет связанным с ростом населения России (если, конечно, будет идти этот рост населения).


А вот число сайтов никак не связано с количеством населения России. У одного человека или у одной организации может быть не один сайт, а два, три, десять, двадцать, сто и более. Технология сайтостроения не стоит на месте и позволяет достаточно быстро штамповать всё новые и новые сайты людям, которые достаточно далеки от понимания html-разметки.


Давайте, глядя на эти графики, сравним ситуацию в 2004 и 2012 годах.


В 2004 году российская аудитория Интернета увеличилась примерно на 4 млн. человек. В этом же году было зарегистрировано примерно 0.7 млн. доменов. Грубо говоря, в Интернете появилось примерно 5.7 новых человек на каждый новый сайт.


А в 2012 году российская аудитория Интернета выросла примерно на 6 млн. человек. Но в этом же году было зарегистрировано примерно 4.3 млн. доменов. Поэтому приблизительно имеем, что в Интернете появилось примерно 1.4 новых человек на каждый новый сайт.


Экстраполировав эти графики на 2014 и 2015 год, мы получим, что в 2014 году на каждого нового пользователя Интернета придется примерно один новый сайт. А в 2015 году число новых сайтов превысит число новых российских пользователей Интернета.


Мы имеем вот такую картину, как на этом рисунке.



Это весьма печальное явление.


Оно означает, что даже если Вы развиваете свой сайт в целях получения трафика, то не факт, что Вы получите этот трафик.


В начале нулевых годов посещаемость Вашего сайта могла расти сама собой только за счет увеличения аудитории Интернета. Вы могли со своим сайтом ничего не делать, не увеличивать числа страниц и числа ссылок на сайт. И тем не менее посещаемость Вашего сайта могла расти просто так без всякой видимой причины.


В середине нулевых годов это стало уже не так. Для роста посещаемости своего сайта необходимо было уже развивать сайт. Например, писать новые статьи, оптимизированные под ключевые слова и покупать внешние ссылки.


Примерно в 2010 году добиться стабильного роста посещаемости своего сайта стало возможным при бюджете примерно 10-50 тыс. руб. в месяц в зависимости от тематики сайта.


В 2015 году даже в два раза большие бюджеты могут не дать стабильного роста посещаемости сайта. Сейчас более типичная ситуация, когда сайт на какое-то время вылезает в ТОП-10 по некоторым продвигаемым запросам, а потом опять вылетает из ТОП-10 по этим запросам. Но может через какое-то время войти в ТОП-10 по другим запросам и тоже на время.


Но при этом, даже находясь в ТОП-10, поисковый трафик растет незначительно или даже со временем начинает убывать. А то, что это происходит не только с поисковым трафиком, но и с другими видами трафика (рассылки, социальные сети, электронные книги, контекстная реклама и др.), это говорит о том, что причина не столько в плохой или хорошей оптимизации сайта под поисковые запросы, сколько в нехватке пользователей Интернета.


Представьте себе, что в Вашей нише за какой-то период появилось 1000 новых сайтов, которые сразу не сдохли по причине того, что у их веб-мастеров самые серьезные намерения. Каждый из таких сайтов без особого труда получит поисковый трафик 1-2 посетителя в день. Итого, они оттянут на себя из поисковых систем 1-2 тысячи посетителей.


За это же время Интернет пополнится новыми посетителями, которым интересна эта тематика, например, на 800 человек. Значит реально все остальные сайты, которые существовали в этой теме раньше, недополучат 200-1200 посетителей в сутки.


Таким образом, всем остальным веб-мастерам тех сайтов, которые существовали ранее, придется проделать такую работу по оптимизации своих сайтов, чтобы получить дополнительно совокупный трафик на 200-1200 посетителей в сутки. И это только для того, чтобы не потерять свой совокупный трафик.


Как говорила Черная Королева из "Алиса в Зазеркалье": "Нужно будет бежать в два раза быстрее только для того, чтобы хотя бы остаться на месте".


Но откуда возьмется этот дополнительный трафик в 200-1200 человек в день на эти старые сайты? Только из смежных тематик!


Но в смежных областях та же самая картина. Туда тоже лезут новые сайты, которые откусывают свою долю трафика. И веб-мастерам старых сайтов приходится тоже бежать в два раза быстрее, чтобы хотя бы оставаться на месте.


Так что трафика по любому на всех не хватит. Даже на тех, кто активно борется за него.


Что будет дальше?


Есть два варианта дальнейшего развития событий.


Первый вариант. Будет всё больше и больше увеличиваться количество качественных сайтов, которые раскручиваются "белыми" методами.


В этом случае выход сайта в ТОП-10 поисковой выдачи станет всё более и более случайным. Огромное количество сайтов будут хорошими и достойными быть на первых позициях в поисковой выдаче. В этом случае станут важными очень-очень незначительные факторы определять, почему один сайт имеет позиции лучше другого.


Это как в большом спорте. Все спортсмены на соревнованиях большого спорта примерно одного уровня. Но один прибежал к финишу на доли секунды быстрее второго. Почему так получилось? Это чистая случайность.


Второй вариант. Рост числа сайтов тоже выйдет на насыщение.


Сейчас ничего не стоит очень быстро получить бесплатный трафик новому сайту из 10-20 веб-страниц в размере 2-4 посетителя в день практически в любой тематике. Это часто приводит начинающих веб-мастеров к заблуждению, что также бесплатно через какое-то небольшое время они смогут получить трафик 100-200 посетителей в день.


Такой трафик получить можно, но уже не бесплатно. Или бесплатно, но не за год, а за 3-4 года.


Но первые успехи приводят к тому, что начинающий веб-мастер начинает изучать SEO-тематику и "колдовать" над своим сайтом. А лет через 5 бросить свой сайт уже трудно. Уже на него потрачено много сил, времени и денег. А сайт уже откусывает свою долю трафика, у кого-то 20-40 посетителей в день, а у кого-то 200-400 посетителей.


Когда ситуация такая, что в течение полугода у сайта нулевая посещаемость при том, что сайт активно развивают, тогда веб-мастер крепко задумывается, а стоит ли продолжать это дело. В такой ситуации рост числа новых сайтов замедлится и число сайтов в Рунете выйдет на насыщение.


А если число сайтов будет еще и сокращаться, то трафик на остальные сайты еще и увеличится.


Думаю, что лет через 5 ситуация уже полностью прояснится, какой из вариантов реализуется.



------------------

Автор статьи: Евгений Миронов.


---------------

Вы дочитали статью до конца? Если да, то Вы молодец!
Эта статья может Вам ещё пригодиться (или весь этот сайт).
Быстро и удобно можно сохранить ссылку на эту статью через эти кнопочки социальных сетей.

Сохрани ссылку на эту статью в своей любимой социальной сети!

XENU - сыщик битых ссылок на сайте

XENU - сыщик битых ссылок на сайте

Данный пост опубликован в разделе "Раскрутка сайта", а не "СайтоСтроение", так как тематика битых ссылок имеет больше отношение к раскрутке сайта. Потому что, чем больше на сайте битых ссылок, тем хуже отношение к сайту поисковых систем.


Поисковики не любят, когда сайт ссылается на несуществующие вебстраницы и на несуществующие сайты. Одна из причин такой нелюбви заключается в том, что поисковым системам приходится затрачивать некоторые свои ресурсы впустую.


Во-первых, поисковый бот переходит по ссылке и видит, что там нет никакого контента. Во-вторых, он в следующий раз тоже перейдет по этой битой ссылке, в надежде, что на этот раз там появился какой-то контент. В-третьих, поисковый паук, обнаружив битую ссылку на какую-то страницу какого-то сайта, должен пометить в поисковой базе данных, чтобы эту ссылку не сайт не учитывали в ссылочном ранжировании. Или он должен проверить, что эта ссылка уже не учитывается.


Это всё ресурсозатратные действия. Сайт, который наполнен массой битых ссылок, реже посещается поисковыми ботами, чтобы не тратить зря драгоценное время бота.


А кроме того, такой сайт понижается в поисковой выдаче. Это происходит из-за того, что поисковик наличие множества битых ссылок понимает как признак того, что веб-мастер забросил этот сайт и уже не поддерживает его. А это признак того, что на сайте находится старая неактуальная информация.


Наличие множества битых ссылок также для поисковика может быть свидетельством того, что данный сайт разрабатывает неопытный веб-мастер. К такому сайту может быть со стороны поисковой системы более строгое отношение.


Пока Ваш сайт маленький и существует всего один год, как правило, веб-мастер может сам раз в месяц обойти все страницы своего сайта и покликать мышкой по всем ссылкам, чтобы убедиться, что они все рабочие. Но если сайт за несколько лет своего существования оброс уже несколькими сотнями страниц, то делать ежемесячно такую процедуру становится уже достаточно затруднительно.


Рекомендую для поиска битых ссылок на своем сайте использовать бесплатную очень полезную программу Xenu's Link Sleuth. Она делает поиск как внутренних битых ссылок, которые с одной страницы Вашего сайта ведут на несуществующие страницы Вашего сайта, так и исходящих битых ссылок, которые со страниц Вашего сайта ссылаются на несуществующие страницы других сайтов и на несуществующие другие сайты.


Программа Xenu's Link Sleuth занимается поиском не только битых ссылок. Она находит на страницах Вашего сайта несуществующие картинки, фоновые рисунки (backgrounds), фреймы, дополнительные модули (plug-ins), графические карты сайта (local image maps), таблицы стилей (style sheets), скрипты и Java-апплеты. Программа создает отчет, в который выводит список проверенных ссылок с сортировкой по различным параметрам.


Преимущества программы Xenu's Link Sleuth:

  • Можно повторно проверить битые ссылки и тем самым найти такие ссылки, которые на самом деле не битые а рабочие, но были распознаны при первой проверки как битые из-за того, что сайт, на который ссылалась ссылка, был временно недоступен.
  • Можно проверить защищенные сайты по протоколу SSL ("https://").
  • Программа распознает и выводит в отчет редиректы, которые пересылают пользователя другие страницы.
  • Можно создать карту проверяемого сайта.
  • Программа полностью бесплатная.


Недостатки программы

  • Нет русскоязычного интерфейса.
  • На момент написания этого поста последняя версия программы работала только под операционной системой Windows-7 и всеми предыдущими Windows. Не работает под Windows-8. (Хотя в тот момент, когда Вы будете читать этот пост, возможно, на сайте разработчика уже будут более свежие версии программы для новых версий Windows. Перейти на сайт разработчика можно в самой программе в разделе Help и далее пункт About Xenu.)


После установки программы и её запуска Вам нужно зайти в меню File ---> Check URL. Там откроется следующее окошко.



В первой строке ввода Вы пишите адрес сайта, который необходимо проверить на наличие битых ссылок. Если адрес сайта заканчивается названием папки, то нужно поставить в конце строки символ "/". Иначе будет идти проверка всей родительской папки.


Далее можно заполнить еще следующие настройки:

  • Local file - выбрать для проверки сохраненную на диске компьютера веб-страницу.
  • Check external links - дополнительно к внутренним ссылкам будут проверяться еще и все внешние ссылки.
  • Consider URL's beginning with this as "internal" - добавить список ссылок, которые программа будет считать внутренними ссылками. Можно или в строке указать общий шаблон и/или чуть ниже ввести эти ссылки по отдельности. Ввод каждой такой ссылки должен завершаться нажатием на кнопку "Add".
  • Do not check any URL's beginning with this - добавить список таких ссылок или разделов сайта, которые не нужно проверять. Также можно или ввести адрес раздела, который не надо проверять и/или вводить список адресов и ссылок. Ввод каждой такой ссылки должен завершаться нажатием на кнопку "Add".
  • More options - открыть окно с дополнительными настройками.


Потом жмем на кнопку "ОК" и ждем от нескольких секунд до нескольких часов, в зависимости от размера Вашего сайта.


На экране появится полный список всех найденных на сайте ссылок. Каждая ссылка выделяется своим цветом:

  • Зеленый цвет - ссылка доступна.
  • Красный цвет - битая ссылка или ссылка временно недоступна.
  • Серый цвет - ссылка пока еще стоит в очереди на проверку или она была исключена из проверки в настройках пользователя перед запуском проверки.


При завершении работы программы Xenu's Link Sleuth в самом низу окна программы будет написано слово Ready и справа в этой же строке будет показано общее количество найденных и обработанных ссылок и время, которое было затрачено на эту проверку.


Одновременно с окончанием проверки появляется окошко, которое спрашивает Вас делать ли отчет. Советую сделать отчет, так как он более удобен для изучения. В отчете всё отсортировано очень удобно, а не в том порядке, в котором Вы видите на экране (это порядок в котором шла проверка). Кроме того, в отчете Вам показывается не только битая ссылка, но и веб-страница, где эта ссылка была найдена. Отчет появляется в Вашем браузере, который используется по умолчанию.


В заключение несколько слов о дополнительных настройках программы Xenu's Link Sleuth. Перед запуском на проверку Вы можете нажать кнопку "More Options..." в левом нижнем углу (см. картинку выше). После чего появляется следующее окно с дополнительными полезными настройками.



Здесь можно поиграть со следующими параметрами:

  • Parallel Threads - это число параллельно запрашиваемых страниц. Рекомендую ставить 1-4. Если поставите слишком большое число, то будет очень большая нагрузка на сервер. Это снизит скорость выполнения программы.
  • Ask for password or certificate when needed - при необходимости запрашивать пароли и сертификаты. Данная настройка используется для защищенных сайтов и защищенных паролями разделов.
  • Treat redirections as errors - считать все редиректы на сайте ошибками. Применяется, когда Вы точно знаете, что у Вас не должно быть никаких редиректов.
  • Report - информация, которую необходимо выводить в отчет. Можно указывать пункты согласно изображению на рисунке.
  • Broken links, ordered by links - показывать битые ссылки, отсортированные по адресу ссылки.
  • Broken links, ordered by page - показывать битые ссылки, отсортированные по адресу страницы, на которой они находятся.
  • Broken local links - показывать битые локальные ссылки.
  • Redirected URLs - показывать ссылки с редиректами.
  • Site Map - создать карту сайта на HTML. (Имейте в виду, что если на сайте очень много страниц, то отчет может очень долго формироваться.)
  • Statistics - выводить в отчет различную статистическую информацию.



------------------

Автор статьи: Евгений Миронов.


---------------

Вы дочитали статью до конца? Если да, то Вы молодец!
Эта статья может Вам ещё пригодиться (или весь этот сайт).
Быстро и удобно можно сохранить ссылку на эту статью через эти кнопочки социальных сетей.

Сохрани ссылку на эту статью в своей любимой социальной сети!

Уникализация картинок на сайте

Уникализация картинок на сайте

Когда нужно опубликовать на своем сайте чужую статью, то делается глубокий рерайтинг этой статьи. Глубокий рерайтинг, это по существу, полный пересказ статьи своими словами. Только при глубоком рерайте получается практически 100% уникальности статьи.


Но мало кто знает, что уникализировать можно не только тексты, но и позаимствованные картинки и фотографии. Такая уникализация улучшает поиск сайта не по текстовым ключевым фразам, а по картинкам. Кроме того, уникализация требуется при размещении фотографий на многих сайтах объявлений, типа Авито. Есть еще масса случаев, когда Вам может потребоваться сделать какую-нибудь фотографию уникальной.


Сразу замечу, что здесь под словом уникализация понимается не создание такой уникальной фотографии из чужой фотографии, что автор фотографии не узнает свою фотографию. Ни в коем случае нет! И цель этого поста ни в коем случае не заключается в описании методов нарушения авторских прав или присвоения авторских прав.


Цель этого поста, показать методы уникализации картинок только для поисковых систем. Если Вы данными методами уникализируете какую-то фотографию, то автор этой фотографии всё равно узнает своё творение. Поэтому, если автор фотографии обратится к Вам с требованием убрать со своего сайта свою переделанную фотографию, то нужно незамедлительно это сделать и не вступать в дискуссию с автором по поводу того, что Ваша фотография отличается от его фотографии.


В отличие от человека, возможности поисковых систем по различению двух фотографий довольно ограничены. Поэтому практически любую скаченную в Интернете картинку можно чуть-чуть переделать так, что зрительно картинка вроде бы почти не изменилась, а поисковые системы посчитают её совершенно уникальной. Поисковые системы смотрят на бинарный код картинок, размещенных в Интернете. Поэтому картинки нужно переделывать так, чтобы достаточно существенно изменился бинарный код файла картинки.


Понятно, что такие преобразования бинарного кода картинки можно сделать только в каком-нибудь растровом редакторе картинок, типа PhotoShop или Gimp. Все дальнейшие примеры в этой статье приводятся для ФотоШопа.


Чем больше Вы примените методов, перечисленных здесь, тем лучше, тем более уникальная получится картинка с точки зрения поисковой системы. Применение какого-то одного или двух методов может недостаточно уникализировать картинку. Здесь работает аналогия с рерайтом. Чем больше переработка картинки, тем лучше для уникальности.



Пропорциональное изменение размеров картинки


Этот способ практически не работает, когда Вы пропорционально изменяете размеры картинки. Поисковики не считают такие картинки уникальными. Но этот способ можно применять как дополнительный способ к другим, если других способов оказалось очень мало. Чтобы картинка не теряла качество, её размеры нужно только уменьшать.


В PhotoShop заходим в меню Image и выбираем Image Size.



Непропорциональное изменение размеров картинки


Часто на картинке изображение такое, что картинку можно растянуть или сжать по горизонтали или по вертикали. Этот способ проходит для изображения узоров, орнаментов, схем, фракталов, текстур, текстов, абстрактных картин и т.п. Но небольшие растяжения и сжатия поисковики распознают как неуникальные. Поэтому, если нет возможности сделать сильные растяжения и сжатия, то этот способ применяет только как дополнительный.


В PhotoShop заходим в меню Image и выбираем Image Size. Там снимем галочку с пункта Constrain Proportions.


Зеркальное отражение картинки


Очень хорошо метод зеркального отражения подходит для фотографий природных ландшафтов, фотографий далеких городов. Многие фотографии астрономических объектов можно отражать и по вертикали и по горизонтали, так как в космосе нет ни верха, ни низа. Фотографии местности с высоты птичьего полета также можно отражать и по горизонтали и по вертикали. Метод подходит для схем и планов без надписей, для фотографий на белом фоне предметов, которые могут находиться в разных положениях (авторучки, молоток, гвозди, камни и т.п.).


Метод не подходит для фотографий с изображениями текстов (вывески магазинов, надписи на оргтехники, на консервных банках и т.п.), с изображениями циферблатов часов, а также с изображением глобусов и географических карт. Вертикальное отражение не подходит для предметов с четким позиционированием в пространстве (человек, дом, машина, мебель, станки и т.п.).


Горизонтальное отражение может не подойти для фотографий людей, которые держат в руках оружие, столовые приборы, музыкальные инструменты, пожимают друг другу руки или у них хорошо видны пуговицы на одежде.


В PhotoShop заходим в меню Image, выбираем Image Rotation и там выбираем или Flip Canvas Horizontal или Flip Canvas Vertical, в зависимости от того, какое отражение нужно, горизонтальное или вертикальное.



Поворот картинки


Очень многие фотографии предметов на белом фоне можно поворачивать на значительные углы, в том числе и на 90 градусов, например, изображения мяча, молотка, ножниц, тапочек, платков и т.п.


Если Вы имеете дело с фотографиями природы, растений, животных, то повороты можно сделать только на ограниченное количество градусов, как правило не более 3-5 градуса по часовой или против часовой стрелки.


Метод не подходит для фотографий на которых есть изображения городских улиц, квартирных интерьеров, стоящих людей, телеграфных столбов, некоторых фонтанов и т.п.


В PhotoShop заходим в меню Image, выбираем Image Rotation и там выбираем Arbitrary, где задаем направление поворота и угол.



Обрезание картинки


Часто на чужой картинки бывают или очень широкие поля или просто на картинке есть много разных объектов, а Вам нужен только какой-то один предмет. Тогда можно вырезать прямоугольник с нужным Вам объектом.


В ФотоШопе обрезание картинки делается инструментом Crop. Он вызывается нажатием клавиши с буквой ”c” или ищите его в окне Tools.



Вырезание объекта


Очень сильной уникализацией будет, если Вы сумеете вырезать нужный объект из фотографии и перенести его на белый фон или в какую-нибудь другую фотографию. Метод подходит опытным пользователям ФотоШопа и может оказаться весьма трудоемким и длительным по времени, если Вы хотите сделать очень качественную вырезку.


В ФотоШопе есть много самых разных инструментов для того, чтобы вырезать объект с неровными краями.



Изменение яркости и контрастности


Часто бывает так, что небольшое изменение яркости и контрастности улучшает зрительное восприятие изображения. Например, если это фотография, то усиление контрастности на 10%-20%, как правило, улучшает её восприятие. С яркостью тоже можно поэкспериментировать в пределах 10%-20%, как в сторону усиления яркости, так и в сторону ослабления яркости.


Не рекомендуется использовать этот метод на таких фотографиях, где есть человеческие лица. Для некоторых людей восприятие лиц будет очень неестественным, хотя для Вас восприятие этих лиц может показаться в пределах нормы.


В PhotoShop заходим в меню Image, выбираем Adjustments и далее выбираем пункт Brightness/Contrast.



Изменения цветовых каналов


Этот метод тоже не рекомендуется применять на фотографиях с человеческими лицами. Вы можете не заметить, а другим людям может показаться, что у Вас на фотографии человеческие лица стали неестественно бледными или неестественно красными. То же самое относится и к фотографиям, где есть изображения объектов с естественными цветами, например, трава и листья, голубое небо, белый лист бумаги, черная нефть и т.п.


Метод хорошо работает там, где есть изображения таких объектов, которые могут быть окрашены в разные цвета. Например, автомобили, мебель, канцелярские товары, одежда, обувь, игрушки и т.п. Но такое изменение оттенков недопустимо, если Вам нужны фотографии для Вашего интернет-магазина (особенно по продаже одежды и обуви).


В PhotoShop заходим в меню Image, выбираем Adjustments и далее выбираем пункт Color Balance.



Изменение имени файла


Обязательно измените имя сохраняемого файла. Отдельно от всех остальных этот метод не работает, так как не меняет бинарный код файла. Но и оставлять старое название ни в коем случае нельзя.


Особенно нельзя оставлять старое имя файла, если название файла очень оригинальное, например, набор из 15 случайных цифр и букв. Как правило, такие имена файлам дают не люди, а программы движков сайтов для уникализации имен картинок. Робот поисковика, встретив два файла с таким одинаковым длинным названием, может отправить эти картинки на ручную модерацию живым человеком. А живой человек, конечно же, сразу заметит, что Ваша картинка, это всего лишь слегка подправленная оригинальная картинка и поэтому Вашу картинку не следует индексировать.


В меню ФотоШопа выбираем File и затем Save As.



Изменение типа графического файла


Это тоже такой метод, который отдельно от всех других не работает. Его надо применять только в качестве дополнительного метода. Дело в том, что у поисковых систем есть конверторы, которые могут конвертировать между собой все три формата файлов картинок в Интернете: JPG, GIF и PNG.


В меню ФотоШопа выбираем File и затем Save As. Перед сохранением выбираем тип файла JPEG или CompuServe GIF или PNG.



Изменение метаданных фотографий


Наконец, последнее, что нужно сделать, это сменить метаданные фотографии. В метаданных фотографии может содержаться такая информация, как дата и время фотографирования, название фотоаппарата или сканера, имя автора, комментарии, название картинки, тема, ключевые слова, самые разные данные фотоаппарата и режима фотосъемки, а также версия EXIF.


Лучше эти данные не просто стереть, а заменить на свои. Причем, лучше всего указать там очень оригинальные данные. Например, можно указать несуществующую марку фотокамеры и несуществующее название фотоаппарата (или сканера). В этом случае, если Вашу картинку скопируют с Вашего сайта и не изменят метаданные, то поисковые системы будут считать, что оригинал картинки находится на Вашем сайте.


Обратите внимание на такой момент. Если фотография создана фотоаппаратом, то дату и время фотосъемки Вы должны поменять точь-в-точь на такие, которые совпадает с датой и временем создания файла. У Вас при сохранении файла дата и время создания файла становятся более поздними. Но никогда не бывает так, чтобы дата фотографирования не совпадала с датой создания файла. Поэтому нужно обязательно сменить дату и время фотографирования. Это если Вы хотите создать впечатление, что это необработанная фотография.


Также можно откатить дату в операционной системе Вашего компьютера на несколько лет назад и сохранить файл и дату фотосъемки достаточно старыми. Поисковая система при определении, какая фотография оригинальная, конечно же, не смотрит, насколько старая дата у файла, так как можно подделать любую дату. Но если Вашу картинку скопируют на другой сайт, то совпадение даты и времени фотосъемки с точностью до минуты укажет поисковику, что именно Ваша картинка оригинальная.


Метаданные картинки можно изменить без всяких графических редакторов прямо в операционной системе Windows, начиная с операционки Windows XP и следующими. Для этого в Проводнике кликаете на файле правой кнопкой мышки и в выскочившем контекстном меню переходите на пункт “Свойства”. Там переходите на вкладку ”Подробно”. В левой колонке ”Значение” редактируете нужные Вам значения и потом обязательно нажмите внизу на кнопку ”Применить”, затем “ОК”.



Надеюсь, что эти 11 методов помогут Вам уникализировать картинки с чужих сайтов для размещения их на своем сайте и сделать так, чтобы картинки, скопированные на другие сайты с Вашего сайта, поисковики считали копиями Ваших картинок.



Для более глубокого начального изучения ФотоШопа можете скачать эти бесплатные учебные курсы. А для эффективного применения PhotoShop в интернет-бизнесе смотрите самые лучшие видеоуроки Фотошопа на русском языке.



------------------

Автор статьи: Евгений Миронов.


---------------

Вы дочитали статью до конца? Если да, то Вы молодец!
Эта статья может Вам ещё пригодиться (или весь этот сайт).
Быстро и удобно можно сохранить ссылку на эту статью через эти кнопочки социальных сетей.

Сохрани ссылку на эту статью в своей любимой социальной сети!

Супер-быстрая индексация в Яндексе

Супер-быстрая индексация в Яндексе

Порой возникает такая ситуация, когда необходима очень быстрая индексация в Яндексе новых страниц на своем сайте. Например, Вы хотите на своем сайте сообщить, о какой-то акции, например, что с такого-то по такое-то число действуют такие-то грандиозные скидки на такой-то товар. Или Вам надо срочно сообщить (до того, как это сделают конкуренты), что у Вас появился какой-то новый товар. Или Вам надо, например, сообщить, что скоро состоится запись на какой-то вебинар или ограниченная запись на какой-то обучающий курс. И т.д.


Или другая очень похожая ситуация, когда нужно очень быстро проиндексировать какую-то новую ссылку на своем сайте. Например, Вы занимаетесь продажей ссылок на своем сайте, а оплата за размещение ссылки пойдет только после индексации этой ссылки в Яндексе. Значит, надо как можно скорее переиндексировать уже существующую страницу.


Такая же ситуация, когда Вы, наоборот, покупаете ссылки на чужих сайтах. Допустим купили ссылку, а она до сих пор не проиндексирована. Таким образом, получается, что Вы платите вебмастеру чужого сайта за воздух и ждете, когда же его вебстраница переиндексируется в Яндексе.


Спрашивается, как можно очень-очень быстро проиндексироваться в Яндексе?


Ответ. Если бы у Вас был бы новостийный сайт, где очень-очень быстро меняются новости, то Вы могли бы вставить туда новость со ссылкой на ту вебстраницу, которую надо очень быстро проиндексировать в Яндексе или быстро переиндексировать в Яндексе.


Дело в том, что на такие новостийные сайты боты Яндекса заглядывают очень часто. Особенно часто на такие новостийные сайты заглядывает БыстроБот Яндекса.


БыстроБот Яндекса, это такой специальный бот, который как раз и предназначен "пастись" на таких новостийных сайтах, где очень быстро меняется контент вебстраниц. Именно этот БыстроБот позволяет Яндексу показывать в своей поисковой выдаче самые последние свежие новости.


А что делать, если у Вас нет такого своего новостийного сайта?


Тогда Вам надо купить новость на новостийном сайте.


Некоторые новостийные сайты зарабатывают тем, что продают места в своей ленте новостей, куда Вы можете вставить свою новость со ссылкой на ту вебстраницу, которую Вам надо срочно проиндексировать или срочно переиндексировать.


Особенно хорошо, если Вы разместите новость со своей ссылкой не на одном новостийном сайте, а на нескольких. Для Яндекса это будет сигналом того, что это новость является важной и, следовательно, требуется очень срочная индексация или переиндексация вебстраницы по ссылке из новости.


В Интернете существуют специальные сервисы, которые предназначены для удобства покупки новостей сразу на многих новостийных сайтах. Например, сервис Получи Бота.


При использовании этого сервиса, новая вебстраница попадает в индекс Яндекса в течение от 10 минут до 10-14 дней. По статистике большинство вебстраниц при использовании данного сервиса реально попадают в индекс Яндекса в течение не боле 30 минут. Уже существующие проиндексированные вебстраницы переиндексируются заново в течение 10-14 дней. Без применения данного сервиса переиндексация может затянуться до 2-6 месяцев.


Стандарт 10-14 дней, это время необходимое для двух текстовых апдейтов Яндекса. Два таких апдейта дают 100-процентную вероятность индексации новой вебстраницы и переиндексации старой вебстраницы.


Сервис имеет 3 тарифных плана:

  • ЭКСПРЕСС Лайт. Вам гарантируется один переход БыстроБота, но без проверки на индексацию или переиндексацию. Цена 0.1 руб. (на момент написания данного поста).
  • ЭКСПРЕСС. Гарантируется два перехода БыстроБота без проверки на индексацию. Цена 0.4 руб.
  • АБСОЛЮТ. Дается гарантия четырех переходов БыстроБота каждые 2 часа. Делается проверка на индексацию после каждого перехода бота. Гарантируется возврат денег обратно на баланс за не проиндексированные ссылки (за исключением 0.2 руб. за процессинг урла и проверку на индексацию). Цена выполнения 2 руб.


На большой объем имеются скидки на всех тарифах.


Как видите, цены сервиса Получи Бота вполне демократичны и доступны.



------------------

Автор статьи: Евгений Миронов.


---------------

Вы дочитали статью до конца? Если да, то Вы молодец!
Эта статья может Вам ещё пригодиться (или весь этот сайт).
Быстро и удобно можно сохранить ссылку на эту статью через эти кнопочки социальных сетей.

Сохрани ссылку на эту статью в своей любимой социальной сети!



Прыг: 01 02 03 04
сентябрь 2018
пн вт ср чт пт сб вс
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30