Фильтры Яндекса и Google - пессимизация и бан

Здравствуйте всем, кто зашел на сайт http://beehive-software.com. Тема сегодняшней моей статьи напрямую связана с повышением ранжирования сайта и его релевантности.

Только речь в ней пойдет о тех ошибках, которые допускаются начинающими (и не очень) оптимизаторами при SEO продвижении сайта,  а также о фильтрах и причинах их применения в наиболее популярных поисковых системах Google и Yandex.


Оптимизация сайта для запросов в поисковых системах, на мой взгляд, напоминает хождение по канату, натянутому над огромной пропастью. Где любое твое неверное движение (ошибки при оптимизации), действия поисковиков против накрутки и спама (ветер), а также их сочетание грозят потерей равновесия (пессимизация сайта) и даже падением в эту пропасть (бан сайта).

И даже, успешно начав движение и не получая никаких замечаний от поисковых систем, нельзя быть застрахованным от того, что их алгоритм и методика оценки не изменятся и вы не попадете под санкции – пессимизация или бан сайта.

Немного позже я покажу на реальном примере, как старания SEO оптимизатора могут принести непоправимый вред, но вначале давайте познакомимся с матчастью.

Фильтры ранжирования сайта и пессимизация

Не будь на вооружении поисковиков этих фильтров, которые способны подрубить корни в выдаче даже сайтам, высоко релевантным поисковому запросу, все были бы ужасно счастливы. Что же это такое и почему поиск нуждается в этих инструментах?

Фильтры ранжирования – это то оружие, с помощью которого Гугл и Яндекс борются со спамом и мошенническими попытками накрутить релевантность и повысить уровень ранжирования.

Действительно, ведь что может быть проще, забить текст до отказа всевозможными ключевыми словами с уверенностью, что поисковые системы увидят, сколько раз упоминается на странице поисковый запрос, и скажут: «Ого, молодец, давай выдам я его повыше».

Но нет, Яндекс с Гуглом не дураки, понимают, что, кроме ключевиков, текст несет мизерную полезную информацию для пользователя и накладывают карающий фильтр.

А он, в зависимости от внутренних своих алгоритмов оценки, либо сразу отправит в бан, вычеркнув сайт из индексации, либо даст шанс, при этом существенно понизив показатель ранжирования. Эти же действия они применяют и для переспамленных анкор-листов и при искусственном искажении факторов поведения посетителей сайта.

Причем, как я сказал выше, алгоритм оценки действий по оптимизации меняется время от времени, подстраиваясь под хитроумные выдумки SEO-оптимизаторов, направленных на повышение показателей формулы релевантности раскручиваемого сайта.

В зависимости от времени приложения фильтра, способы оптимизации делятся на две группы:

1. Наложение фильтров происходит до расчета формулы ранжирования ресурса. При этом происходит существенное понижение степени влияния либо обнуление определенных показателей вашего ресурса.

Эти ограничения существенно препятствуют размещению сайта в верхних строках поисковой выдачи. К примеру, если поисковый робот заподозрит вас в манипулировании с входящими ссылками, то может просто приравнять к нулю показатель количества входящих на ваш сайт ссылок, как будто их и нет вовсе.

Предварительный фильтр никак не влияет на последующий расчет согласно формуле ранжирования, однако из-за сниженного или нулевого показателя какой-либо ее составляющей, рейтинг сайта будет существенно отличаться от настоящей релевантности.

2. Применение фильтра происходит после расчета формулы рейтинга сайта. Тут все просто – показатель релевантности снижается на то количество единиц, которое определил фильтр. Одним из подобных фильтров в Яндексе является так называемый «портяночный фильтр».

Он применяется и очень чувствительно опускает сайт в поисковой выдаче за слишком частое вхождение ключевых слов в содержимом (переспамленность).

Теперь я вам расскажу о том, что может повлечь за собой пессимизацию сайта, то есть, за что понижают сайты в рейтинге:

Аффилированность сайта. Чтобы избавить от конкурентов вверху поисковой выдачи и соответственно увеличить целевой поток посетителей, владельцы или SEO-оптимизаторы прибегают к разным хитростям. Одна из них заключается в том, чтобы «выдавить» конкурентов с помощью специально созданных нескольких ресурсов, аналогичных основному, и раскручиваемых по тем же ключевым запросам.

Получается, что вверху выдачи «топчутся» на первый взгляд разные, но принадлежащие одному владельцу сайты. Поисковики научились это вычислять, и фильтруют ресурсы за аффилированность, оставляя всего один результат, а остальные исключают, маркируя их зеркалами.

Любопытно, но на данный момент алгоритм этого фильтра не совершенен, и это дает возможность использовать его для нечестной конкурентной борьбы. После мовершения определенных действий поисковики начинают считать ваш ресурс аффилированным с сайтом какого-либо конкурента, и при этом именно ваш «назначают» главным, а конкурента-«зеркало» вообще исключают из выдачи по данному запросу.

И что самое главное, все «по закону». Чистый мат. Предлагаю ознакомиться с этим мошенническим способом и понять, как бороться с киберрейдерами, и посмотреть данное видео:






Фильтр на одинаковый сниппет. Сниппет – это описание ссылки, которое показывается вместе с ней в результатах поисковой выдачи. Поисковики могут самостоятельно генерировать его из контента данной страницы, либо он может задаваться вручную с помощью мета-тега Description.

Однако, случается такое (особенно в случае интернет-магазинов), что бывает лень или не хватает времени написать его самостоятельно, но вроде бы надо. И его попросту копируют либо с каталога, либо с сайта производителя или конкурента.

В подобном случае возможна такая ситуация, что несколько ресурсов при одном и том же поисковом запросе имеют одинаковые (полность либо до определенного показателя) сниппеты. Поисковые системы этого не любят и оставляют в результатах выдачи только один ресурс, который, однако, может не всегда быть самым релевантным.

Фильтры за качество содержимого.

1. В случае переспамленности текста (крайне высоком содержании в нем ключевых слов), поисковые системы применяют упомянутый мною ранее «портяночный фильтр». Он обособлен от поисковых запросов и применяется, в основном, к коммерческим (купить, заказать и т.д.), и на вероятности его наложения может сказаться значимость, проверенность самого ресурса.

К примеру, у вас в тексте (пусть и достаточно объемном) содержится, скажем, сорок упоминаний ключевого коммерческого запроса. Это с печальной уверенностью гарантирует вам применение портяночного фильтра и уменьшение релевантности данной страницы на размер порядочного штрафа, способного выкинуть ее даже из ТОП 100 выдачи по конкретному запросу.

Избежать применения данного фильтра к вашим текстам можно выполняя несколько простых правил:

  • не использовать большого количества повторений ключевых запросов. Существует такой показатель как «уровень тошноты». Его измеряют с помощью специальных сервисов, и показывает он процент вхождения тех или иных слов в документе. Оптимальный показатель 3-5%;
  • не следует размещать скопление ключей в последней четверти документа. Изначально так и делали, справедливо рассчитывая на то, что не многие посетители дочитывают текст до конца и этот фильтр создавался именно для борьбы с подобным размещением;
  • ключевые запросы следует распределять в тексте страицы равномерно, избегая их скапливания в какой-либо его части.

2. Фильтр за переоптимизацию. В отличие от портяночного, данный фильтр не привязан к количеству ключевых слов в документе. Он призван бороться с желанием повысить релевантность страницы путем махинаций с текстовыми факторами ранжирования.

Его сфера интересов практически полностью ограничена запросами для коммерческой выдачи, и наложение происходит полностью на всю страницу, независимо от того, по какому количеству запросов она продвигается.

Но штраф при его наложении существенно ниже, чем в случае портяночного фильтра. Он составляет десятка два позиций, что, естественно, тоже выкидывает вас с вожделенного ТОПа.

Фильтры за неуникальность текста. Об этом и говорить нечего – копипаст, то есть, банальный плагиат никто не любит, даже Гугл с Яндексом.

Фильтры за качество входящих ссылок.

  1. Покупка SEO-ссылок. Нынешние поисковые системы умеют с достаточно высокой точностью выявлять покупные входящие ссылки на сайт. Однако действие этого фильтра достаточно непонятное, поскольку, к примеру, для коммерческих запросов ссылки подобного рода оказывают положительное действие, повышая релевантность. Правда, работает это на 100% в случае покупки ссылок с авторитетных в поисковых системах, проверенных ресурсов.
  2. Ссылочный взрыв. Яндекс и Гугл (особенно последний) накладывают этот фильтр за неправдоподобно резкое увеличение количества входящих на сайт ссылок. Поэтому, для грамотного продвижения ссылочной массой существует золотое правило «спеши не торопясь», производя наращение около десяти ссылок в неделю.
  3. «Некачественная ссылочная масса». Ссылки с ненадежных, потерявших доверие поисковых систем, сайтов, тоже могут привести к наказанию фильтром.
  4. Активное участие в специализированных биржах по автоматическому обмену ссылками (линкаторах) также влечет за собой понижение релевантности (пессимизации) из-за фильтрационных санкций.

Повышение релевантности может грозить попаданием под фильтр

Матчасть, вроде бы, прошли, теперь давайте поговорим о тех жульнических действиях, которые вместо увеличения рейтинга могут подвести все ваши действия под фильтр поисковых систем, и даже бан сайта.

Отмечу сразу, все, что я хочу вам рассказать, - это не мои догадки и домыслы. Вся информация взята из первоисточников, у самих поисковых систем, любезно предоставляющих информация о разрешенных и запрещенных методах повышения ранжирования сайта.

Но перед тем как приступить к сути повествования, хотелось бы напомнить о легальных и грамотных способах повысить релевантность.

Ранее я уже отметил необходимость грамотно оптимизировать тексты сайта под поисковые запросы. Также, следует, не дожидаясь пока поисковики соизволят самостоятельно вас заметить, показать им свой новый сайт или его важные обновления в раздел add URL (так называемая аддурилка).

Большое влияние на показатель ранжирования оказывает степень доверия к сайту (траст). Его увеличение происходит с помощью обратных ссылок с ресурсов, у которых степень доверия выше, чем у вашего. Поэтому следует стараться добавить сайт в Яндекс.Каталог, а также попасть в такие авторитетные каталоги как Dmoz и прочие подобные ресурсы.

Теперь давайте перейдем непосредственно к запрещенным приемам раскрутки. Поисковые системы могут не только менять степень релевантности страниц к поисковым запросам, но также, при попытке обмана, налагать штрафы и отправлять полностью весь ресурс в черный список.

В лицензиях поиска все запрещенные действия указаны и расписаны, тем самым предотвращая возникновения каких-либо претензий со стороны владельцев интернет-ресурсов. Так, лицензия на использование поисковой системы Yandex о самом ранжировании говорит следующее:


Первый абзац описывает принципы ранжирования ресурса, которые ожидаемо основаны на соответствии контента поисковым запросам (на релевантности), причем это осуществляется абсолютно независимым от влияния извне роботом.

При этом указано, что алгоритмы оценки могут меняться, и ресурс будет «плавать» в результатах выдачи.

Важной является информация в п.3.5. В нем Яндекс явно указывает, что приоритетом его принципов ранжирования является пользователь, посетитель ресурса, его интересы и удобства. Тем самым поиск пресекает всяческие возражения владельцев и создателей о некорректной на их взгляд оценке релевантности, мол, «наш ресурс такой красивый, а вы с ним так поступаете…».

Далее, в п.3.7. прямым текстом сказано, что SEO оптимизация, неважно, кем она проводится, опытным мастером или еще новичком, – это обман поисковых систем с целью увеличения релевантности страниц сайта. Здесь же звучат угрозы фильтрами, пессимизацией (понижением в выдаче) или удалением из индекса всего ресурса вообще (бан).

Кроме этого, факт каких-либо изменения в ранжировании владельцу не сообщается, а также не гарантируется снятие штрафных санкций или бана.
По правде сказать, как показывает практика, если общаться со службой поддержки Яндекса вежливо и корректно, то выяснить причину и избавиться от санкций можно, хотя понервничать все равно придется.

Далее в поисковых правилах Яндекса он снимает с себя всякие обязательства по разъяснению причин бана или понижения рейтинга и предлагает изучить документ под названием «Чем отличается качественный сайт от некачественного с точки зрения Яндекса». Чем мы с вами сейчас и займемся.

Пессимизация сайта Яндексом. За что?

Раздел «Основные принципы» рассказывает нам, каким должен быть сайт, находящийся в индексе Яндекса. Эти показатели достаточно логичны, справедливы:

  1. Продуманное юзабилити
  2. Забота о посетителях ресурса, т.е. Сайт Для Людей (СДЛ)
  3. Качественный, оригинальный контент
  4. Продвижение должно быть по тем поисковым запросам, информация о которых полностью раскрывается в контенте сайта
  5. Не любит Яндекс платное размещение ссылок на страницах ресурсов

Это все понятно, и, как я уже сказал, справедливо. Но нас интересует другое – за что Яндекс пессимизирует сайты? Читаем дальше раздел «Примеры к принципам»:


Да, вполне вероятно, что малая доля неуникального содержимого по сравнению со всем контентом сайта не сможет существенно ухудшить его позиции, но всему есть граница, и перейдя ее можно получить по заслугам от фильтра и чувствительно потерять свои позиции.

Идем далее.

Некоторое время назад была весьма популярна стратегия продвижения в ТОП выдачи поисковых систем из разряда «черного SEO». Принцип ее заключался в следующем.

Страницы создавались автоматически специальными скриптами, которые прописывали в их тексте нужное количество ключевиков. При этом сам текст представлял собой сгенерированный бессвязный набор слов. Естественно, благодаря ключевикам, этот дорвеи попадал в ТОП, а пользователь, зайдя на него, перенаправлялся на нужный ресурс, ради продвижения которого этот дорвеи и создавался.

И хотя поисковики серьезно взялись за разоблачение и пресечение подобных ресурсов, до сих пор остаются еще такие товарищи, которые пытаются пролезть через фильтры, грозящиеся отправить в бан.

Далее Яндекс рушит надежды на использование еще совсем недавно популярных методов раскрутки и продвижения, а именно продвижение с помощью каталогов и заключение текста с ключами в невидимые на первый взгляд элементы.


Тут все понятно, описанные каталоги уже понижены Яндексом в ранжировании, невидимый и скрытый техническими способами текст прекрасно распознается карающим роботом, поэтому, чтобы не нанести вред своему ресурсу, связываться с этим не стоит.

Следующий способ, от использования которого нас предостерегает Яндекс, - это клоакинг.

Клоакинг реализуется в процессе программирования сайта и заключается в идентификации владельца запроса к странице сайта. Если запрос идет от пользователя, ему показывается реальное содержимое страницы, а в случае бота поисковой системы, - содержимое, высоко релевантное запросу.

Далее Яндекс кидает камень в сторону тех, кто создает сайты исключительно для заработка по различным партнерским программам.

Хотя, должен ради справедливости отметить, что достаточно большое количество подобных сайтов успешно существуют и обходят все заслоны поисковых систем.
Со следующими двумя пунктами я, поскольку являюсь не только веб разработчиком, но и пользователем, согласен на все 100500%!

Что касается моего мнения по поводу наказания подобных ресурсов, я бы их не пессимизировал, а сразу отправлял бы в пожизненный бан. И эту свою позицию я считаю не такой уж и жестокой и несправедливой, думаю, вы согласны?

Достаточно часто в недавнее время можно было встретить сайты, которые продвигались подобным методом спама, искусственно повышающим релевантность: на страницах размещался длинные список поисковых запросов, по которым этот сайт якобы находили пользователи.

Вполне логично, что пользователи и поисковые системы негативно относятся к тому, что содержимое по своей сути не соответствуют тому запросу, по которому пользователь попадает на сайт. Поэтому, фильтры поисковиков серьезно пессимизируют подобные ресурсы вплоть до бана.

Сейчас еще достаточно часто можно встретить различные плагины, позволяющие «продвигать» подобным спамом, но я настоятельно советую обходить их десятой дорогой.

Кстати, интересный момент: этот фильтр может заподозрить в спаме даже обычное «облако тегов». Обидно, печально, но, увы, это так. До совершенства алгоритму фильтрации еще далеко.

Еще один пункт грозит штрафами за аффилированность ресурсов.

Способ, по которому некоторые владельцы (зачастую интернет-магазинов) пытаются бороться с конкурентами и перехватить большую часть поискового трафика заключается в следующем.

Создается несколько ресурсов, предлагающих аналогичные товары или услуги, но имеющие отличные доменные имена. Они продвигаются по одинаковым запросам, к которым их содержимое высоко релевантно. Через определенное время они полностью занимают собой ТОП в поисковиках.

Да, для владельца это хорошо, но вот самим поисковым системам не нравится этот способ нечестно конкурентной борьбы. Они выявляют подобные ресурсы по некоторым признакам, а зачастую, по жалобным запросам самих конкурентов.

Но здесь мы говорим о том, как поисковики находят аффилат ресурсы, поэтому приведу данные, как это реализуется. А делают они это путем поиска совпадения данных, найденных на сайтах с разными доменными именами:


Далее следуют два логичных пункта, указывающие на недопустимость ресурсов, на которых есть возможность неконтролируемого проставления ссылок, а также тех, которые продают ссылки для искусственного повышения релевантности других сайтов.

По поводу последнего пункта хочется отметить, что не все ресурсы имеют шансы попасть под его действие. В основном это грозит ссылочным биржам типа Sape, а продажа «вечных ссылок» через такие авторитетные биржи, указанные ниже, достаточно безопасна.

  1. Miralinks
  2. Rotapost
  3. Getgoodlinks
  4. Gogetlinks  

Популярный не так давно метод продвижение с помощью сайтов-сателлитов также попал в поле зрения поисковиков и ныне наказуем. Его суть заключалась в следующем.

Создавались дополнительные ресурсы, на которых активно размещались ссылки на продвигаемый сайт. Поисковые системы считают это искусственным накручиванием релевантности, поэтому стремится выявить эти спутники и отправить их в бан.

Поиск по сайту можно реализовать различными способами, начиная от скриптов Гугла и Яндекса, заканчивая внутренними средствами CMS, на которой создан сайт. Но, так или иначе, страницы, показывающие результаты этого поиска, не должны индексироваться, т.е. должны быть закрыты в файле robots.txt.

Печальная история SEO-оптимизации

Думаю, вы достаточно тесно познакомились с тем, как должен выглядеть сайт в понимании поисковых систем и с тем, чего они категорически не приемлют. Теперь хочу поведать вам обещанную историю о том, как действия, направленные на повышение позиций ресурса в поисковых системах, могут оказать обратное действие, существенно снизив его позиции.

Весной 2012 года ваш покорный слуга заметил значительное уменьшение поискового трафика по сравнению с его оптимистичным ростом до этого момента. Кстати, это снижение совпало аккурат с введением Гуглом в действие «милых» зверюшек – Пингвина и Панды.

Для тех, кто не в курсе, поясню:

Панда – фильтр поисковой выдачи от компании Google. Он карает за некачественные входящие и исходящие ссылки, высокий процент отказов и недолгое время, проведенное пользователем на сайте, большое количество рекламы и неуникального контента. В новой версии, появившейся как раз той злополучной весной 2012, был сделан акцент именно на качестве ссылочной массы.

Пингвин – новый на то время фильтр, специализирующийся исключительно на ссылках. Он проводит анализ на предмет их естественности, а также реагирует на количество ссылок и скорость его изменения.

Итак, продолжу. Поначалу у меня не возникло особых опасений по поводу уменьшения трафика. Оно было связано только с Гуглом, на Яндексе же, наоборот, прежний рост продолжался. Однако, с каждым очередным обновлением фильтров Гугла, падение все сильнее ускорялось. И опять я не бил тревогу, поскольку Яндекс радовал день ото дня, приближая трафик с его поиска к заветному числу 10000 пользователей в день, тем самым ощутимо компенсируя потери от другой поисковой системы.

Катастрофа случилась в начале апреля 2013 года, когда сразу же после планового обновления поисковой базы Яндекса я потерял около 1500 посетителей. Дальше – больше, и уже через 2-2,5 недели ежедневный трафик с поиска Яндекс на мой сайт упал до показателя 2000 переходов.

Вот только тут, как говорится, когда жареный петух клюнул, я и начал бить тревогу. Разумеется, я понимал, да и на всех SEO форумах об этом говорили, что правды следует искать только у непосредственного «виновника» ситуации, - на самом Яндексе.

В подвале сервиса «Инструмент для вебмастеров от Яндекса» я перешел по ссылке «Обратная связь» и написал:

Добрый день!

Вчера мною было отмечено уменьшение количества переходов с поиска Яндекса на мой сайт ХХХ. Сегодня я вижу еще большее уменьшение трафика.

Насколько я знаю, вчера было очередное обновление вашей поисковой базы, но я не пойму причин своего падения. Вирусы на моем сайте отсутствуют, сам сайт доступен, обновление материалов происходит регулярно… Подозреваю, что меня за какое-то нарушение оштрафовали.
Очень хочу узнать у вас реальные причины данной ситуации и мои последующие действия по ее исправлению.

Заранее спасибо.

Вера в то, что после пары обновлений поисковых баз все встанет на свои, прежние места, исчезла после того, как я получил долгожданный ответ от техподдержки Яндекса.

Здравствуйте!

Наши алгоритмы проанализировали ваш сайт и обнаружили, что содержание части страниц вашего сайта может иметь отрицательное действие на ранжирование. Наш робот обнаружил страницы, которые содержат текстовые фрагменты, рассчитанные не на пользователя, а исключительно на поисковых роботов.

В частности он обнаружил списки поисковых запросов. Исходя из того, что Яндекс не в состоянии ранжировать подобные страницы в достаточной степени корректно, было произведено понижение позиций Вашего сайта в поисковой выдаче.

Если есть возможность безболезненно для Вашего сайта избавиться от подобных элементов, сделайте это, либо подкорректируйте их с целью более адекватного восприятия посетителями Вашего ресурса.

Анализ Вашего сайта производился комплексной оценкой, поэтому Вам следует проверить, кроме самих текстов, также содержимое ссылок и тегов (в т.ч. title).
После проведенных изменений, сообщите нам, пожалуйста, и мы заново проведем анализ Вашего сайта на предмет внесенных исправлений.

-------
С уважением, Платон Щукин

Служба поддержки Яндекса

После этого я серьезно засел за поиск информации на самых заслуженных и уважаемых сайтах и блогах гуру СЕО оптимизации. Достаточно быстро мне стало понятно, что превышением уровня тошноты текстов (превышение оптимального количества ключевиков, чрезмерное увлечение тегом <strong>) такая пессимизация моего сайта не могла быть вызвана.

Скорее всего, причина крылась в переоптимизованности заголовков (title), и все той же перетошнотностью, но не текстов, а из-за большого количества повторяющихся ключевиков в Title и Alt тегов изображения <IMG> на моем сайте.

Еще при самом создании своего сайта я взял себе за правило заполнять вышеупомянутые атрибуты, давай описание того, что реально на изображении видит пользователь. Это позволило бы захватить еще и ранжирование по картинкам, тем самым создав дополнительный источник трафика.

Долгое время это приносило свои положительные плоды, количество посетителей росло, и я, руководствуясь правилом «если работает, ничего не трогай», продолжал заполнять эти атрибуты описанием того, что именно показано на картинке.

Однако именно это и сыграло со мной злую шутку. Если бы, к примеру, я иллюстрировал картинками достопримечательности Парижа, заполнение данных атрибутов не смогли бы мне повредить, то в случае со скриншотами в статье, скажем, про Гугл Аналитикс, содержащей их несколько десятков, это оказалось весьма плачевным.

На каждом был показан именно этот инструмент Гугла и, естественно, я заполнял атрибуты так, чтобы в них было упоминание, связанное с «Гугл Аналитикс». И тем самым я переоптимизировал статью, добавив (из самых благих намерений) в ее тело пресловутые «списки поисковых запросов».

Осознав вред от этих действий (и к тому же бесполезность, так как трафик картинки приносили мизерный) я провел трехдневную работы по полному удалению этих атрибутов из всех статей моего сайта. После чего с возросшей надеждой написал второе письмо в службу технической поддержки Яндекса.

Холодный ветер реальности и трезвый взгляд в будущее
Пара дней ожидания ответа и вот он перед моими глазами. Вначале я очень обрадовался ему, зарядился оптимизмом, однако чуть погодя, понял, что он не содержит никаких обещаний, что фильтр отвернет от моего сайта свою карающую длань, мне предлагали всего лишь «подождать».

Здравствуйте.

Вы устранили причины, из-за которых Ваш ресурс был подвергнут понижению в рейтинге. Решение о прекращении санкций в отношении Вашего сайта будет принято ориентировочно через месяц после проведенной нами новой проверки.

Во время ожидания решения, Вы можете совершать на своем ресурсе какие угодно действия, запланированные Вами, главное условие – во время проверки на сайте должен присутствовать контент, который будет доступен для индексации.

Кроме этого, мы советуем Вам ознакомиться с рекомендациями наших специалистов по оптимизации сайта:

http://help.yandex.ru/webmaster/recommendations/intro.xml
http://company.yandex.ru/rules/optimization/index.xml

-------
С уважением, Платон Щукин

Служба поддержки Яндекса

Как вы уже, наверное, догадались, никто мой сайт из-под фильтра в указанный срок так и не вывел. Я подозревал, что виною тому майские праздники, которые «растянули» обещанный месяц ожидания, но все равно решил, что за спрос не бьют, и написал еще раз уточняющий вопрос в службу Платона Щукина. Мною был получен ответ, оборвавший в моем сердце оставшуюся струну надежды.

Здравствуйте.

С сожалением вынуждены Вам сообщить, что наши алгоритмы, проведя повторную проверку, решили не снимать с Вашего ресурса санкции. Во избежание повторения подобных ситуаций настоятельно рекомендуем Вам ознакомиться со следующим:

http://webmaster.ya.ru/replies.xml?item_no=11464
http://company.yandex.ru/rules/optimization/index.xml

Соблюдая данные рекомендации, Вы сможете со временем улучшить позиции Вашего сайта.

-------

С уважением, Платон Щукин

Служба поддержки Яндекса

Контрольным выстрелом стало то, что пока я выяснял отношения с Яндексом, Гугл отвернулся от меня полностью. Возможно, произошли еще какие-то апдейты его фильтров, а возможно он коррелирует свои действия с Яндексом, полагая что «если тот не хочет ставить на хорошие позиции, то и я не буду». Как говорится, грусть-тоска.

Хватаясь, как утопающий за соломинку, я написал очередное письмо Платону, в котором спросил его о возможности ручного снятия фильтра. Но таковых возможностей у них, вполне ожидаемо, не оказалось.

Однако, этот их последний ответ дал-таки вполне конкретное указание как самостоятельно выбраться из-под фильтра Яндекс.

Здравствуйте.

Сожалеем, но ручная коррекция решений алгоритма не предусмотрена.

Также, техподдержка не сможет дать Вам конкретных путей решения Вашей проблемы.

Единственно, можем подсказать, что корректировка текстов, направленная на снижение чрезмерного количества ключевых слов, как показывает практика, может принести максимальный результат.

-------

С уважением, Платон Щукин

Служба поддержки Яндекса

Я внял этому их последнему совету и вплотную занялся коррекцией текстов. И знаете что? Я ужаснулся! Если в последнее время я старался серьезно контролировать стиль, показатель тошноты и т.п., то ранние мои статьи прямо-таки кишели подобным.

Если вы думаете, что теперь с моим сайтом все в порядке в плане корректности написания текстов, то вы глубоко ошибаетесь. Даже если я больше ничем не буду заниматься целый день, кроме коррекции, я сделаю три, ну максимум пять полноценных, качественных статьи. А их у меня несколько сотен. Так что, в недалеком будущем мне есть чем заняться.

К слову хочу сказать, что общение со службой поддержки Гугла (с помощью сервиса Гугл Вебмастер) тоже закончилась безрезультатно. Мне было сказано, что никто не применял ручные фильтры, а автоматические они не корректируют.