Фильтры Google: их должен знать каждый вебмастер. Фильтры Яндекса и Google

  • 15.05.2019

В прошлом мастер-классе я рассмотрел . Сегодня я расскажу, за что Google может пессимизировать ваш сайт в выдаче и какие фильтры используются этим поисковиком. Также я дам советы, как избежать этих фильтров и что делать, если вы все же под них попали.

В целом для сайтов, оптимизированных в первую очередь под ПС Яндекс, актуальны лишь несколько основных фильтров Google. Это объясняется тем, что большинство требований Яндекса к качеству сайта жестче, чем требования Google, и на практике чаще всего сайт пессимизируется именно в Яндексе. При этом в Google позиции могут стабильно расти по мере индексации доработок, текстов и внешних ссылок. Случаев, когда позиции сайтов в Google были бы хуже, чем в Яндексе, значительно меньше.

Поэтому при постоянном развитии ресурса и следовании требованиям Яндекса, большинство фильтров Google не будут страшны вашему сайту.

Прежде чем перейти к основным фильтрам, которые используются Google, я остановлю свое внимание на одном алгоритме, который был введен весной 2012 года и заставил понервничать многих владельцев сайтов и веб-мастеров — “ ”. Тогда именно из-за действий этого алгоритма сайты стали терять свои позиции и требовалось приложить большие усилия, чтобы вернуть их в ТОП.

Алгоритм “Пингвин”

Об алгоритме:

Новый алгоритм “Пингвин”, запущенный Google 25 апреля 2012 года, направлен на борьбу со спамом в различных его проявлениях и учитывает множество внешних и внутренних факторов ранжирования сайта. Вот анонс разработчиков Google за несколько дней до релиза “Пингвина”:

“В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые, как мы считаем, нарушают требования Google к качеству сайтов”.

Как не попасть под санкции “Пингвина”:

Чтобы избежать действий данного фильтра Google, вам необходимо:

  • В первую очередь следует проверить (“битые” внутренние ссылки, неправильные редиректы, долгое время загрузки страниц) и страницы сайта на предмет “спамных” текстов.

Фильтры и стратегии в сервисе Rookee уже актуализированы для продвижения сайтов в ПС Google в условиях алгоритма “Пингвин”. Вам доступна функция подключения white-листа (в настройках стратегии продвижения). Подключив white-лист, вы сможете застраховать свой сайт от попадания под пессимизацию алгоритма “Пингвин”.

  • Проверить качество анкоров внешних ссылок. Если большинство из них — только точные вхождения, необходимо сменить такие анкоры на более естественные, разбавить их неточными вхождениями и . Такая возможность реализована в системе Rookee с помощью редактора текстов ссылок:

Помимо данного алгоритма, независимо друг от друга существуют и используются несколько фильтров Google, связанных с определенными характеристиками сайтов. Ниже я рассмотрю наиболее известные из них.

Фильтр Google “Песочница” (Sand Box)

Признаки наложения:

Молодой сайт, не достигший определенного возраста, не попадет в индекс от 3 месяцев до года. Подразумевается, что занимать высокие позиции по конкурентным запросам должны относительно старые качественные сайты.

Сайт только недавно создан.

О фильтре:

Так как новые сайты, скорее всего, не смогут ранжироваться лучше старых авторитетных сайтов по конкурентным запросам, они помещаются в так называемую “песочницу”. Цель ПС — понять, насколько сайт будет полезен пользователям в основной выдаче по конкурентным запросам: будет ли ресурс развиваться, наполняться контентом и т.п., и сможет ли в дальнейшем составить конкуренцию старым авторитетным сайтам.

Чтобы как можно скорее выйти из-под фильтра, рекомендуется постоянно развивать сайт — обновлять контент, добавлять новые материалы, создавать внутреннюю перелинковку. Ссылочную массу следует наращивать планомерно, без резких скачков. Необходимо также, чтобы качество площадок, с которых устанавливаются ссылки, удовлетворяло требованиям последних изменений алгоритмов Google.

Фильтр Google "Дополнительные результаты" (Supplementary Results)

Признаки наложения:

Страница не показывается в результатах поиска по запросу. Она будет показываться, только если будет недостаточно страниц, на которые не наложен фильтр. Обычно такое происходит только для низкочастотных запросов.

За что ваш сайт мог попасть под фильтр:

Ваш сайт мог попасть под этот фильтр, если на нем есть страницы, которые дублируют друг друга.

О фильтре:

Часто многие страницы сайтов, хоть и дают ответ на запрос, но или он неполный, или страница, на которой есть ответ, считается некачественной. Причинами, по которым страница считается некачественной, могут быть: некачественная или “спамная” внутренняя перелинковка, использование дублированного контента с других сайтов и т.д. Такие страницы не показываются в основных результатах поиска, а помещаются в “Дополнительные результаты”.

Как не попасть под фильтр:

Чтобы страницы сайта всегда показывались в основной выдаче, необходимо соблюдать все рекомендации поисковой системы, размещать уникальный и полезный для пользователей контент, ставить ссылки с авторитетных источников.

Как вывести сайт из-под фильтра:

Чтобы страница показывалась по всем запросам в основных результатах поиска, следует поставить на нее несколько ссылок с качественных площадок, уникализировать контент или добавить больше информации. Также следует обратить внимание на технические ошибки на сайте и все исправить.

Другие фильтры Google


Кроме вышеперечисленных, часто встречающихся, в кругах оптимизаторов можно услышать и о других фильтрах Google:

  • “Возраст домена” (Domain name Age). Этот фильтр Google накладывается на сайт, доменное имя которого зарегистрировано менее полугода назад. Так как такие сайты имеют меньший уровень доверия, чем старые, они медленнее индексируются. Чтобы сайт начал хорошо индексироваться, необходимо постоянно развивать его, тогда ПС увидит, что сайт создается для людей, и будет лучше его индексировать.
  • “Бомбежка” (Bombing). Этот фильтр Google накладывается за большое количество ссылок с одинаковыми анкорами. Действие таких ссылок не учитывается в ранжировании сайта, и, как следствие, не виден рост позиций. Чтобы ссылки начали приносить результат, необходимо разбавить ссылочную массу уникальными текстами.
  • “Битые ссылки” (Broken Links). Накладывается на сайт, имеющий большое количество внутренних ссылок, ведущих на несуществующие страницы (отдающие 404 ошибку). Такой сайт теряет позиции в выдаче. Чтобы выйти из-под фильтра, необходимо исправить все подобные ссылки на сайте таким образом, чтобы они вели на существующие страницы.
  • “Много ссылок сразу” (Too Many Links at once). Если за короткое время на сайт установлено слишком много ссылок, они перестают влиять на ранжирование сайта. Чтобы не попасть под этот фильтр Google, рекомендуется планомерная закупка ссылок в ограниченном количестве. Особенно это актуально для .
  • “Линкопомойка” (Links). Проверяются страницы сайта, имеющие большое количество исходящих нетематичных ссылок. Кроме этого, могут ухудшиться позиции самого сайта-донора и начать выпадать из индекса страницы. Рекомендуется удалить страницы, количество внешних ссылок на которых больше 5.
  • “Фильтр по времени загрузки” (Page Load Time). Страницы, которые загружаются очень долго, исключаются из результатов выдачи. Чтобы выйти из-под данного фильтра Google, необходимо проверить технические параметры страниц (это можно сделать с помощью сервиса ) и исправить возможные ошибки.
  • “Минус тридцать” (- 30). Этот фильтр понижает позиции сайта по большинству запросов примерно на 30 пунктов. Накладывается за использование “черных” методов продвижения — , редиректы через JavaScript, (предоставление пользователю и ПС разной информации) и т.п. Чтобы вернуть позиции, необходимо устранить причины наложения фильтра.
  • “Дублирующийся контент” (Dublicate Content). Позиции сайта с неуникальным контентом искусственно понижаются в результатах поиска. Чтобы избежать пессимизации, необходимо следить за уникальностью контента и переписывать его в случае ухудшения позиций.
  • “Чрезмерная оптимизация” (Over Optimization). Если текст на страницах сайта перенасыщен ключевыми словами, такие страницы значительно теряют позиции или полностью исключаются из выдачи. Чтобы не попасть под фильтр, рекомендуется придерживаться плотности каждого ключа в тексте (это отношение ключевого слова или ключевых фраз к общему количеству слов на странице) не более 5-7%.

Заключение

Чтобы избавиться от влияния большинства фильтров Google и обезопасить сайт от их наложения, достаточно следовать нескольким простым советам:

1. Постоянно наполнять сайт уникальным контентом.

2. Обновлять контент как можно чаще. Самый лучший вариант — добавлять информацию каждый день.

4. Следить за техническими аспектами работоспособности сайта.

5. Следовать по созданию и развитию сайтов.

Если после прочтения мастер-класса у вас возникли какие-либо вопросы, буду рад на них ответить!


Приветствую всех посетителей моего блога!

Сегодня исполняю то, что обещал. Недавно я написал статью и о том, как не попасть под действие того или иного фильтра. В той статье я обещал вам написать немного позже по той же теме, но про поисковик от Google.

Сегодня как раз подходящее время. Поэтому в этой разберем, какие санкции накладывает Google на веб-ресурсы и как не стать жертвой этих злобных фильтров.

Дело в том, что многие задаются одними и теми же вопросами. Почему так медленно развивается, и посещаемость остается на том же уровне? Я же пишу новые довольно таки часто, а результатов все нет и нет. Да, бывает и такое, ребята, причем довольно часто.

Самое опасное заключается в том, что вы сами можете не осознавать, что у вас с блогом небольшие проблемы! И со временем может случиться так, что эти проблемы перерастут из небольших в очень весомые и серьезные. И вот тогда уже точно беда! Поэтому, чтобы исключить некоторые из этих неприятностей я решил написать статью про фильтры и санкции поисковой системы Google.

Хочу отметить то, что поисковая система Яндекс более лояльна к различным недочетам и . А вот Google в большинстве своем не жалеет никакие веб-ресурсы и строго наказывает их за несоблюдение рекомендаций по созданию и продвижению сайтов.Вам не помешает узнать подробно про эти рекомендации.

Итак, сегодня в этой статье я буду говорить о фильтрах и санкциях поисковика Google.

В принципе, если вы читали мою предыдущую статью про Яндекс и его фильтры, то вам будет проще понять эту тему. Если сказать в общем, про наказания этих поисковых систем, то у них схожие требования ко всем веб-ресурсам в Интернете: создавайте полезные сайты и блоги для людей и наполняйте их уникальным контентом, который будет основным поисковым запросам пользователей. И в этом случае ваш ресурс не попадет под действие санкций и фильтров.

Однако не стоит забывать, что Google более придирчив и строг в вопросах, касающихся технической стороны по сравнению с другими поисковиками.

С момента создания своего блога и до настоящего времени при я выявил очень большое количество разных технических ошибок.

И, самое коварное заключается в том, что эти ошибки не заметны невооруженным глазом. Их можно определить только при более тщательном осмотре. А вот отлично видны все недочеты с момента создания вашего блога.

И хочу отметить, что данная ситуация отражена почти на всех блогах. 90% блогов выглядят подобным образом в глазах поисковых роботов. Вообще, если вы установили и начали заливать контент на блог, то этого более чем достаточно для того, чтобы поисковые системы обратили свое внимание на Ваш веб-ресурс.

Да и мы все тоже хотим заслуженного внимания в виде увеличения показателей своего веб-ресурса и постепенного увеличения количества посетителей. Однако поисковые системы придерживаются своего мнения насчет этого, а также используют свои методы воздействия для исправления вебмастером всех недочетов и ошибок на его сайте или блоге. И зачастую этот поисковик безжалостен к таким ресурсам и может их строго наказать.

Нужно ли вам такое внимание? Мне кажется, нет. И вот в чем кроется проблема. Зачастую эти ошибки появляются с первого дня жизни сайта или блога. Это в основном связано с системой (появлением дублей страниц или дублированных картинок), создание блога с помощью бесплатного , а также наличие всевозможных скрытых и битых ссылок, присутствие ошибок в коде, и другие недочеты, которых пруд пруди.

Ну, а внешне все смотрится отлично-просто превосходный блог. Единственное что огорчает — посещаемость который год остается на том же месте и не растет…

Но, не стоит огорчаться и грустить. Все эти недочеты и ошибки можно исправить!

Только делать это нужно очень осторожно, иначе можете наломать дров, и это приведет к непредвиденным последствиям – различным фильтрам и санкциям со стороны поисковых систем. В этом вы уже не сможете обвинить шаблон или , потому что виноваты вы сами!

Поэтому нужно всегда помнить, что поисковые системы могут наказать ваш блог как за бездействие, так и за неправильные действия.

Санкции и фильтры от Google

Ну, а теперь расскажу подробнее про каждый фильтр.

Фильтр от Google «Песочница» (Sand Box) .

Все веб-ресурсы, которые появились недавно на просторах Интернет, оказываются под действием этого фильтра.

Но не стоит страшиться этого факта, ребята. Это просто прописано в алгоритмах поисковика. Все новые сайты и блоги не способны создавать конкуренцию другим возрастным веб-ресурсам по в результатах выдачи.

Новоиспеченному молодому блогу выделяется время на становление в пределах от 3-х месяцев до одного года. В течение этого времени вы обязаны продемонстрировать поисковой системе то, что вы настроены решительно, должны досконально поработать над своим ресурсом, и навести на нем полный порядок исходя их обязательных рекомендаций.

И еще, чтобы вы знали, вместе с этим фильтром (песочницей) для ресурсах, созданных на новом домене, существует фильтр на «возраст домена». Эти веб-ресурсы достаточно медленно индексируются, а также им в меньшей степени доверяет поисковая система.

Им нужно будет хорошо постараться для того, чтобы это доверие появилось. Развивайте свой блог правильно, чтобы это произошло как можно быстрее!

Фильтр от Google «Пингвин» (Penguin) .

Это более серьезный фильтр от данного поисковика. В то время, когда он появился, достаточно большое количество веб-ресурсов просто напросто исчезли из результатов поисковой выдачи.

Этим фильтром наказываются сайты и блоги за спам. Первичная цель его создания очистка результатов выдачи от веб-ресурсов, которые оказались там незаслуженно.

Поэтому не нужно увлекаться спамом при оптимизации своих статей. Все должно быть в меру. И тогда вы не попадете под этот фильтр.

Фильтр от Google «Панда» (Panda) .

Очень жестокий фильтр, который вешается на ресурсы с некачественным контентом, а также сайты с различной в больших объемах, не соответствующей его общей . А также за переспам ключевыми запросами и дублированный контент.

Вот так Google разводит целый «зоопарк» для контроля над всеми веб-ресурсами.

Фильтр от Google «Дополнительные результаты» (Supplementary Results) .

Данный фильтр схлопочет ваш блог в том случае, если вы в срочном порядке не решите проблему дублей страниц и другого ненужного хлама на своем блоге.

Что примечательно, данный фильтр начинает действовать, если на вашем блоге имеется неуникальный контент. И если вы пишете статьи с уникальностью от 95 до 100 %, и у вас при этом имеются дубли этих страниц, то вы просто тратите свое время впустую. Уберите дубли и ваш блог начнет развиваться с новой силой.

Для того чтобы проверить есть ли у вас дубли страниц, достаточно ввести в строке поиска Google вот это:

Если вы увидели внизу строку «скрытые результаты поиска», то у вас проблемы с дублями страниц. Кликните по этой строчке. Какое количество страниц прописано вверху? 500? 1000? Вы написали столько статей на своем блоге? Если да, то это похвально, а вот если нет, то у вашего блога серьезные неприятности! Решайте эту проблему как можно скорее!

У меня тоже были проблемы с дублями страниц при выводе древовидных комментариев, и моя проблемная ситуация постепенно решается. А всё потому, что я устранил источник этой заразы. Вы тоже учтите, что на удаление из индекса Google этих дублированных страниц потребуется время, и причем немалое.

Ну, а я тоже скоро напишу статью про удаление дублированного контента на своем блоге и продемонстрирую вам свои результаты в этом направлении, чтобы не быть голословным.

Фильтр от Google «Минус тридцать» (-30) .

Данный фильтр награждает вебмастеров, которые используют «темное SEO». Он понижает на 30 пунктов в результатах выдачи и предупреждает о том, что будет хуже, если вебмастер будет продолжать в том же духе.

Проще говоря, не нужно обманывать поисковые системы, если не знаете, как это нужно делать правильно.

Фильтр от Google «Бомбёжка» (Bombing) .

Этот фильтр присваивается за то, что позиции блога по какому-либо поисковому запросу остановились.

В основном это получается из-за в большом количестве с применением одного и того же . В итоге получается большое число ссылающихся сайтов-доноров с одним анкором. Необходимо обязательно разбавлять свой анкор-лист, а не использовать один и тот же. Это грубейшая ошибка. Да вы и сами понимаете, что это выглядит вообще .

Фильтр от Google «Флорида» (Florida) .

Данный фильтр применяется к веб-ресурсам за неправильное продвижение своего ресурса, а точнее за пере оптимизацию (пере спам) ключевыми запросами в теле статей, в тегах -H6 и Title.

Еще раз это говорит о том, что во всем нужно знать меру. Оптимизируйте на здоровье, но не увлекайтесь. Не забывайте о том, что вы пишете статьи, прежде всего для людей, а уже потом для поисковых роботов.

Фильтр от Google «Неуникальный контент» (Duplicate Content) .

Этот фильтр применяется к сайтам и блогам, которые имеют неуникальный контент.

Поэтому не нужно с других ресурсов. За это вас по голове не погладят, только накажут, и стыдно потом будет. Если не умеете писать, то покупайте копирайт или рерайт. И тогда все у вас будет хорошо.

Этот фильтр, я думаю, вам понятен. Ясно, что он применятся к сайтам и блогам, на которых есть битые ссылки. Что такое битые ссылки, как их вычислить и избавиться от их присутствия, читайте в моей статье . Проверяйте время от времени свой блог на наличие этих ссылок, и будет вам счастье!

Этот фильтр придет к вам, если страниц вашего блога очень медленная. Поэтому повышайте скорость загрузки блога. Читайте мою статью и применяйте на практике. Там все подробно расписано.

Фильтр от Google «Искусственная ссылочная масса» (Reciprocal Links Filter и Link Farming Filter) .

Этот фильтр накладывается за искусственное наращивание , а также заспамленность блога мусорными ссылками и если вы бездумно и продаете ссылки.

Если вы участвуете в автоматизированных системах обмена ссылками, то вы тоже в зоне риска. Все это не есть гуд, ребята. Избавляйтесь от этого дерьма!

Фильтр от Google «Цитирование» (Co-citation Linking Filter) .

Смысл этого фильтра заключается в бездумном проставлении ссылок со своего веб-ресурса на сомнительные или подозрительные сайты и блоги. Друзья, проставляйте ссылки только на проверенные ресурсы! Не захламляйте свой блог. Если вы будите ссылаться на некачественные ресурсы, то Google и ваш блог примет за низкокачественный. Старайтесь фильтровать то, что рекомендуете своим посетителям.

Фильтр от Google «Быстрый прирост контента» (Filter Quick Simple Content) .

Он применяется к ресурсам, которые очень часто обновляются.

Этот факт очень подозрителен и намекает на автоматическую генерацию контента. Опять же повторюсь, найдите золотую середину. Ребята, будьте естественнее. Вы же не робот. Робот имеется в наличии только у поисковой системы.

Ну, вот я и описал, как обещал, все основные фильтры поисковой системы Google. Мне кажется, вы поняли, что если соблюдать эти рекомендации, то можно избежать серьезных проблем в процессе создания и продвижения своего блога. И не придется причитать потом, что Google и Яндекс вас и не любит и поэтому жизнь не имеет смысла.

Не нужно бегать с бубном возле ноутбука и вызывать дух всемогущего Google в надежде на снисхождение и увеличение посещаемости вашего детища. Нужно просто соблюдать эти истины и все.

Итак, еще раз об основных тонкостях:

— создавайте СДЛ (сайт для людей);

не тащите чужие тексты из чужих статей (друзья, это позорно и тупо. Вас поймают и навешают люлей!);

обращайте внимание на техническую сторону вопроса (скорость загрузки блога, правильный без мусора, битые ссылки и скрытые ссылки, и другой ненужный хлам);

продвигайте свой блог постепенно , шаг за шагом, не гонитесь за быстрыми результатами — они обманчивы;

мотивируйте посетителей осуществлять какие-либо действия на вашем блоге для улучшения поведенческих факторов.

Если вы еще не добавили свой блог в Google вебмастер , то прямо сейчас сделайте это. Это отличная подсказка, в которой отражены многие ошибки, имеющиеся на блоге. Он вам отлично поможет в продвижении.

Ну, а я в свою очередь хочу попрощаться с вами. Надеюсь, вам понравилась эта статья, и вы многое узнали для себя. Жду ваших комментариев. До встречи в моих новых материалах! Пока.

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу - по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Хочу сегодня обратить ваше внимание на фильтры от поисковой системы Google.

Когда я только создал свой блог, я понятия не имел, что алгоритмы поисковиков созданы настолько грамотно, что если им встречается некачественный сайт, тогда они могут на него наложить некоторые ограничения.

Конечно, если вернуть время назад, я развивал бы свой ресурс совсем другим образом и не стал бы делать тех ошибок, которые привели меня к плачевному результату.

Как говорится, если осведомлен — значит вооружен.

Виды фильтров у Google

1) «Песочница» или Sandbox . Этот фильтр накладывается на молодые сайты в момент их рождения в сети интернет.

Это своего рода испытание для сайтов, чтобы не попали на топовые места, мало живущие дорвеи, блоги однодневки и др.

Сами подумайте зачем, Гуглу ставить непроверенные сайты на верхние места выдачи, если через определенное время такой сайт может и вовсе перестать существовать.

Выход из-под фильтра

— ждать;
— наращивать естественную ссылочную массу;
— писать регулярно ;
— купить старый домен;

2) Google Florida . Этот фильтр накладывается на сайты, имеющие чрезмерную оптимизацию страниц.

Он отслеживает злоупотребление мета-тегов: strong, h1-h6, насыщенное количество ключевых слов и их плотность.

Выход из-под фильтра

— заменить seo оптимизацию на нормальную;

3) Google Bombing . Понижение конкретной страницы в выдаче, за счет ссылающихся одинаковых анкоров в большом количестве.

Если вы будете продвигать какую-нибудь страницу, используя внешние ссылки с одинаковым анкором, тогда результат получится полностью наоборот.

Выход из-под фильтра

4) «Минус 30» . Под данный фильтр google попадают сайт, которые используют для продвижения «черную» оптимизацию. Такие ресурсы Гугл понижает на 30 позиций.

Причины попадания под фильтр

— резкое увеличение ссылочной массы с некачественных площадок (каталогов, гостевых книг и комментариев);
— помойки ссылок;
— редирект при помощи java script, а также ;

Выход из-под фильтра

— не использовать вышеперечисленные пункты для продвижения сайта;
— убрать редирект;

5) «Дополнительные результаты» или Supplemental Results . Если страницы окажутся под таким фильтрам, тогда они будут выводиться в поиске, только если «качественных» сайтов будет недостаточно, кликнув по ссылке «дополнительные результаты».

Выход из-под фильтра

— уникализировать на странице мета-теги и title;
— закупить несколько трастовых ссылок на данную страницу;
— увеличить объем уникального контента страницы;

Выход из-под фильтра

— избавиться от нерабочих ссылок;

7) «Неуникальный контент» . Если сайт использует ворованный контент (копипаст), тогда этот фильтр будет понижать его в результатах выдачи.

Хотя бывают случаи, когда фильтр Google накладывается не на ворующего, а на того, у кого своровали. а играет очень важную роль.

Выход из-под фильтра

— не воровать чужой материал;
— ускорить индексацию страниц;
— удалить неуникальный материал;

8) «Время загрузки страниц сайта» . Когда робот заходит на сайт и не получает доступ к его содержимому (по причине некачественного хостинга или сервера), тогда он такие страницы пропустит и они не смогут попасть в индекс.

Выход из-под фильтра

— поменять хостинг на качественный, у которого 99,95%;

9) «Цитирование» или Co-citation Linking Filter . Суть его в том, что ссылаться стоит только на качественные сайты, которые в свою очередь тоже должны ссылаться на качественные площадки.

В основном под такой фильтр могут попасть только сайты .

Выход из-под фильтра

Выход из-под фильтра

— ссылаться на сайты по цепочке 1 на 2, 2 на 3, 3 на 1.

11) «Много ссылок сразу» . Этот фильтр Гугла понижает сайты в выдаче, а иногда даже накладывает бан, за участи площадки в линк помойках, больших закупок ссылок и др.

Выход из-под фильтра

12) «Много страниц сразу» . Если на блоге появляется огромное количество контента за маленький промежуток времени, тогда Google может посчитать, что это не естественно и наложить фильтр.

Выход из-под фильтра

— соблюдайте естественность;
— если используете , тогда поставьте ограничение на количество добавляемого материала;

13) «Степень доверия» или Trust Rank . Чем больше вы получите доверия от Google, тем выше будут ваши позиции в выдаче ТОП. Этот фильтр включает все, что было перечислено выше.

— возраст домена;
— качество входящих ссылок;
— количество исходящих ссылок;
— качество ;

14) Google Panda . Этот фильтр появился не так давно, но уже успел потрепать нервишки многим сеошникам.

Суть его заключается в том, что говносайты не должны попадать в индекс, подробно о нем я рассказал в статье « ».

Выход из-под фильтра

— делайте СДЛ сайт, используя все вышеприведенные рекомендации;

15) Google Пингвин . Самый последний из фильтров. Суть его заключается в том, чтобы понизить в выдаче сайты, которые для продвижения используют покупные ссылки.

В ходе его работы на многих блогах сократилась посещаемость, а на других наоборот выросла. Очень подробно о нем я рассказал в прошлой статье « ».

Выход из-под фильтра

Еще хочу добавить, что если вы делаете сайт для людей (СДЛ), часто обновляемый, содержащий уникальный контент и приносящий пользу, он никогда не попадет под фильтры Гугла, а показатели ТИЦ, PR и Траст будут расти сами собой.

Если все-таки вас фильтр не обошел стороной, тогда не отчаивайтесь и развивайте свой проект дальше.