Фильтры Google: их должен знать каждый вебмастер

  • 04.05.2019

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter

Хорошего настроения всем читателям — сайт!

Представляю Вашему вниманию основные фильтры Google вместе со способами их ликвидации.

У поисковой системы Google, так же как и у Яндекса, есть ряд фильтров, которые накладываются на Веб-ресурсы оптимизаторов. В целом, фильтры Google и Яндекса основаны на похожих принципах. Однако способы вывода сайта из-под того или иного фильтра все же отличаются.

Итак, приступим. Попробуем разобраться, какие есть фильтры у Гугла и что делать, когда сайт попадает под пессимизицию.

1. Самым распространенным фильтром поисковой машины Google является «Sandbox », так называемая «песочница». Этот фильтр автоматически накладывается на молодые сайты. При этом Веб-ресурс может быть вне индекса до 3 -х месяцев.

Способы вывода из-под фильтра «Sandbox». – нужно связать страницы сайта между собой. Можно осторожно закупать ссылки, но только очень осторожно, чтобы не попасть под другие санкции («Много ссылок сразу»).

При этом нужно очень тщательно выбирать площадки-доноры, обращая внимание на такой показатель, как Trust Rank (степень доверия Google к Интернет-ресурсам). Или же можно просто ждать, когда Гугл самостоятельно посчитает сайт «пригодным».

2. Следующий фильтр Google – это «Domain Name Age » (возраст доменного имени). Данный фильтр может быть наложен на сайты с доменными именами возрастом до 1 года, которые практически не имеют доверия от поисковиков. Гугл плохо начинает такие ресурсы, чем не позволяет искусственно завысить позиции сайта.

Способы вывода из-под фильтра «Domain Name Age». Можно попробовать закупаться ссылками со старых сайтов, трастовых ресурсов. Также можно попробовать сменить домен, на тот, которому уже более 1 года.

3. «Supplementary Results » (вспомогательные результаты). Этот фильтр накладывается, когда на сайте имеются страницы, которые дублируют друг друга. Google просто перемещает такие сайты в отдельную группу «Дополнительные результаты поиска», поэтому на эти страницы пользователи практически никогда и не попадают.

Способы вывода из-под фильтра «Supplementary Results». Нужно либо убрать дублированные страницы, либо размещать на каждой странице уникальный и полезный контент.

4. Фильтр «Bombing » (бомбежка). Как правило, данный фильтр накладывается на сайт из-за большого количества ссылок с других ресурсов с одинаковыми анкорами. Эти ссылки просто не учитываются поисковиком, поэтому позиции сайта не растут.

Способы вывода из-под фильтра «Bombing». Нужно просто убрать часть ссылок с одинаковыми анкорами. Вместо них лучше прикупить ссылки с уникальными анкорами, которые поисковик еще не учитывал ранее.

5. Фильтр «Bowling » (боулинг). Если к привлечению вышеописанных фильтров был причастен в основном сам оптимизатор, то к фильтру «Bowling» зачастую имеют отношение недобросовестные конкуренты, которые воруют контент (), пишут письма с жалобами, накручивают поведенческие факторы, размещают ссылки на забаненных сайтах и т.д. Этот фильтр очень опасен для молодых сайтов, к которым нет особого доверия со стороны поисковика (низкий показатель Trust Rank).

Способы вывода из-под фильтра «Bowling». Выход один – нужно обращаться к специалистам Google с объяснительным письмом, в котором нужно разъяснить всю ситуацию и попробовать доказать свою правоту.

6. Фильтр «Broken Links » (так называемые « »). Накладывается такой фильтр при большом количестве ссылок, которые выдают ошибку 404. При этом ресурс практически всегда теряет свои позиции в поисковой выдаче.

Способы вывода из-под фильтра «Broken Links». Нужно проверить все ссылки на сайте и найти эти самые ссылки с . Обнаружить их можно с помощью ПО Xenu Link Sleuth или же в панели Яндекс. Вебмастер.

7. Фильтр «Too Many Links at once » (фильтр еще называют «много ссылок сразу»). Если за которое время поисковая система обнаруживает очень много ссылок на определенный Веб-ресурс, то, скорее всего, на этот сайт будет наложен фильтр «Too Many Links at once». При этом Google может полностью проигнорировать все купленные ссылки.

Способы вывода из-под фильтра «Too Many Links at once». Нужно начинать постепенно, начиная с минимального числа, постепенно повышая его.

8. Фильтр «Links » (так называемые «линкопомойки»). Если на одной странице сайта очень много исходящих ссылок, то Google обязательно наложит данный фильтр. Кроме того, он просто будет игнорировать все ссылки. Таким образом, не только позиции партнеров не будут расти, сам сайт-донор также может очень сильно потерять свои позиции в поиске Гугла.

Способы вывода из-под фильтра «Links» очень просты. Если на странице более 25 исходящих ссылок, нужно такие страницы просто удалить или скрыть от индексации.

9. Фильтр «Page Load Time » (время загрузки сайта). Этот фильтр накладывается на страницы, очень долго загружающиеся при обращении к ним поискового робота. Сайт просто начинает терять позиции в выдаче.

Способы вывода из-под фильтра «Page Load Time». Нужно избавиться от «тяжелых» элементов сайта, которые перегружают исходный код страниц.

Также можно воспользоваться дополнительными модулями, которые предусмотрены для работы сайта.

10. Фильтр «CO-citation Linking Filter » (социтирование). Этот фильтр применяется, если на Интернет-ресурс ссылается много нетематических сайтов. Google просто снижает позиции таких сайтов.

Способы вывода из-под фильтра «CO-citation Linking Filter». Нужно отыскать такие ссылки, и попросить владельцев сайтов их удалить. При этом нужно только с тематических ресурсов.

11. Фильтр «Omitted Results » (опущенные результаты). Если на сайте неуникальный контент, встречаются дублированные страницы, малое количество исходящих ссылок и слабая перелинковка, то сайт с большой долей вероятности может попасть под данный фильтр. Такие страницы будут присутствовать только в выдаче расширенного поиска.

Способы вывода из-под фильтра «Omitted Results». Нужно удалить «дубли», осуществить , залить на сайт уникальный контент и купить ссылок с тематических ресурсов.

12. Фильтр «-30 ». Такие санкции накладываются на сайт при наличии скрытых редиректов, дорвеев (сайтов, направляющих на данный сайт) и клоакинга. Название фильтра о многом говорит: сайт понижается в поисковой выдаче на 30 позиций.

Способы вывода из-под фильтра «-30». Нужно попытаться устранить все эти сайты, которые предоставляют поисковой системе разную неправдивую информацию.

13. Фильтр «Duplicate Content » (дублированный контент). Естественно, этот фильтр накладывается за неуникальный контент. Такие страницы сайта пессимизируются Гуглом или же просто удаются из выдачи.

Способы вывода из-под фильтра «Duplicate Content». Размещать на сайте нужно только . С помощью различных скриптов можно попробовать защитить его от воровства, хотя и этот метод не всегда помогает.

14. Фильтр «Over Optimizzation » (чрезмерная оптимизация). Фильтр накладывается, когда сайт перенасыщен ключевыми словами. Такие страницы удаляются из выдачи или попадают под жесткую пессимизацию.

Способы вывода из-под фильтра «Over Optimizzation». Нужно сделать так, чтобы на страницах не превышала 5 -7 %.

15. Фильтр «Panda » (панда). Как правило, данный фильтр накладывается на Веб-ресурсы за некачественный контент: низкую уникальность текста, присутствие нерелевантной рекламы, большого количества ключевых слов, дублированных страниц и т.д.

Способы вывода из-под фильтра «Panda». Нужно удалить часть ненужных ссылок, добавить на сайт уникальный контент, удалить нерелевантную рекламу и «дубли».

16. Фильтр «Penguin » (пингвин). Если на сайте плотность ключевых слов превышает отметку в 7 %, имеется точное вхождение ключевых слов в анкорах ссылок, имеются скрытые ссылки и дублированные страницы, а также наблюдается высокий темп роста наращивания ссылочной массы, то такой фильтр просто неизбежен.

Способы вывода из-под фильтра «Penguin». Нужно убрать часть ключевых слов, разбавить анкоры синонимами, удалить скрытые ссылки и «дубли», и, в общем, поработать над «естественностью сайта».

Но не стоит забывать, что поисковые системы регулярно обновляют свои фильтры, а также добавляют новые. Нужно следить за обновлениями, хотя сами поисковые системы не так и активно о них сообщают.
На сегодня это всё.

Если Вам известны другие фильтры Google, обязательно сообщите, я дополню ими существующий список.

До новых статей…

С уважением, Денис Черников!

В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.

Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.

Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.

Чтобы не попадать под санкции, мои советы очень простые:

при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.

Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.

Если уже попали под санкции, то нужно чиститься, других советов дать сложно.

Дмитрий Севальнев ,
евангелист проекта «Пиксель Тулс»

Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.

В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.

Фильтр аффилированности - да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.

«Баден-Баден» и «Минусинск» - чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.

«Санкции за накрутку ПФ» - имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.

,
основатель агентства REMARKA

Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.

С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.

Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.

Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.

Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.

,
SEO-Аналитик в Rush Agency , руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy

Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?

Фильтры Гугла в этом году наши клиенты не получали.

В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.

Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?

Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.

Какие фильтры стали менее ощутимы?

В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.

Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?

Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.

Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.

Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.

,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su . Автор более 20 книг по продвижению сайтов.

Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:

1. Постоянное снижение доли Яндекса на рынке . Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.

2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.

3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.

Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.

Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.

Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.

Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц

Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.

Март — пять обновлений алгоритма, связанных с оценкой качества контента.

Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.

Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.

Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.

Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.

Август – критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.

Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018 , которая была выпущена весной. Ряд материалов есть на сайте drmax.su.

Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.

Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.

Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.

А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!

Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.

Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.

Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.

А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.

Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.

В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.

Всех благ.

Пишите комментарии, задавайте вопросы экспертам!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

1. Дублированный контент

Сайтов с каждым днем становится больше и больше, их количество страниц растет быстрыми темпами. Множество ресурсов дублируют один и тот же контент у себя на сайтах. На обработку данных необходимы ресурсы и они растут снежным комом.

Следствием этого был запущен фильтр, который накладывается на дублированный контент.

Как работает фильтр:

Если вы на сайте публикуете не уникальную информацию, взятую с других источников, то Google понижает эту статью или страницу в результатах выдачи по .

Варианты действий есть 2:

— ваш сайт попадает в supplemental результаты, то есть результаты не основного индекса

— страницы выпадает из индекса поисковой системы

Как не попасть под фильтр:

При продвижении любого сайта необходимо использовать уникальные текста, и если брать тексты с других ресурсов, то делать их рерайт.

Если же на сайте есть дублированные страницы, например одни и те же страницы описания услуги или товара, то нужно убрать дублирующие, или закрыть их от .

Любыми нормальными способами нужно уникализировать контент на сайте, что бы избежать следствий фильтра за дублированный контент.

2. Песочница или Sandbox

Задача данного фильтра удерживать попадание в топ по высокочастотным запросам, как коммерческим, так и информационным.

Запущен он так же для борьбы со спамом, и сомнительными сайтами. Поэтому срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

Как работает фильтр:

Если молодой только созданный сайт начал продвигаться по конкурентным и высокочастотным запросам, то у него, скорее всего не получиться попасть в топ в первое время.

Фильтр Sandbox не действует на средне и низкочастотные запросы. Поэтому на первое время лучше применять продвижение низкочастотных запросов, и параллельно работать над высокочастотными.

Как не попасть под фильтр:

Для новых сайтов это сложно, но можно найти старый домен по вашей тематике, и тут 2 варианта действий:

— делать сайт на старом домене

— склеить старый домен с новым

Оба вариант нормальные и работают, все зависит от правильности склейки. Так же важно старый домен проверить на обратные ссылки, и посмотреть его историю.

Ко многим тематикам, особенно в Украине он не применим, и можно спокойно продвигать сайты и достигать довольно таки быстрых результатов.

3. Быстрый рост ссылок

Если на сайт происходит слишком быстрый рост ссылок, то поисковая система Гугл может предположить, что ею пытаются манипулировать.

Как работает фильтр:

Если Гугл обнаруживает очень быстрый рост ссылок на сайт, то он может его автоматически понизить в результатах поиска. Следствие такого падение позиций, трафика, и долгое не возвращение сайта в топ.

Как не попасть под фильтр:

Нужно медленно и постепенно наращивать ссылочную массу на сайт, что бы в глазах Google это выглядело максимально естественно.

4. Google Bombing

Когда слишком много прямых вхождений анкора ссылок, Гугл видит, что владелец сайта хочет находиться на первых местах, по словам в топе.

Пример такого анкор листа:

Как мы видим на фото, в анкор листе лишь те ключевые слова, которые владелец сайта хочет быть в топе — продвигаются.
Как работает фильтр:

В случае только с прямым вхождением анкора, рано или поздно Гугл может это заподозрить, следствие чего будет падение позиций. Обычно сначала это -10 – 15 позиций. Потом сайт уходит в -100. Если сильно этим пренебрегать, можно попасть так же и в бан Гугла, это когда все страницы выпадают из индекса поисковой системы.

Как не попасть под фильтр:

Чтобы не попасть под фильтр стоит размещать с сильно разбавленным анкор листом, а так же использовать множество брендовых ключевых слов. Если грамотно разбавлять ссылки, то можно избежать этого фильтра и успешно продвигаться в поиске.

5. – 30

Фильтр – 30 предназначен для борьбы с настоящим спамом в результатах выдачи. Это могут быть сайты со скрытыми редиректами, а так же .

Как работает фильтр:

Он понижает такого плана сайты на – 30. То есть сайт не отображается выше 30-ой позиции в выдаче Google.

Как не попасть под фильтр:

Самый простой способ – не использовать черные методы продвижения сайта, и все будет хорошо.

6. Социтирование

Если вы продвигаете сайт, то обязательно стоит делать так, что бы близкие по тематике ресурсы ссылались на вас. Если же сайт успешно поднимается на первые места, а на него ссылаются сайты не связанные с его тематикой, то в силу может приступить этот фильтр.

Как работает фильтр:

Больше всего он работает, в случае если на ваш сайт будет ссылаться много ссылок с нежелательных тематик, как порнография, азартные игры и прочее.

Как не попасть под фильтр:

7. Переоптимизация

Фильтр был создан для того чтобы понижать сайты, которые сильно переоптимизированы внутри.

Как работает фильтр:

Он учитывает количество ключевых запросов на странице. Если сайт сильно ими оптимизирован, то эти страницы могут выпасть или сильно понизится в результатах поиска. Оптимизация текста сайта должна быть нормальной, иначе есть шанс попасть под фильтр.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за переоптимизацию нужно аккуратно оптимизировать тексты и контент на сайте, не сильно перенасыщать все ключевыми словами, делать оптимизацию для людей в первую очередь, а не только для поисковых систем.

8. Скорость загрузки сайта

Уже давно не секрет, что скорость загрузки сайта влияет на продвижение и позиции.

Как работает фильтр:

Если сайт при переходе из поисковой системы сайт медленно загружается, и это повторяется часто, то Гугл может понизить сайт в результатах поиска.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за скорость загрузки, необходимо размещать сайт на качественных серверах, у надежных провайдеров. Если же проблема загрузки зависит от самой системы управления сайта, то нужно тщательно оптимизировать систему управления, что бы все скрипты быстро работали и загружались. А так же всегда мониторить скорость и доступность сайта.

9. Supplemental Results или дополнительные результаты

Фильтр накладывается на страницы сайта, которые она считает малозначимыми. Например, это могут быть страницы с дублирующимся контентом, а так же на страницы, на которые нет входящих ссылок.

Как работает фильтры:

Такие страницы плохо ранжируются Гуглом, а так же эти результаты можно посмотреть, нажав на посмотреть дополнительные результаты.

Как не попасть под фильтр:

Чтобы не попасть под фильтр, необходимо загнать эти страницы в дополнительный поиск, решения простые:

— убрать дубликаты страниц (или сделать страницы уникальными)

Дополнительные результаты поиска не так страшны, но нужно что бы приоритетные страницы и разделы находились в основных результатах поиска.

В старые времена очень популярным способом продвижения был – обмен ссылками. Создавались отдельные страницы, с которых шли ссылки на сторонние ресурсы. На сторонних ресурсах было так же. Следствие этому позиции сайтов росли.

Как работает фильтр:

Если поисковая система обнаруживает массовый обмен ссылками, то она понижает сайт в результатах поиска.

Как не попасть под фильтр:

Основное: не использовать страницы со ссылками на другие ресурсы. Такое в узких кругах называют линкопомойки.
Если вы уже попали под такой фильтр, то нужно убрать такие страницы, или закрыть их от индексации. Немного подождать и позиции вернуться.

Фильтры за возраст сайта:

DNA

Фильтр на недавно зарегистрированные домены DNA (Domain Name Age). Накладывается на «молодые» домены. Для того, что б сайт на недавно зарегистрированном домене смог подняться в топе Googl`а, нужно завоевать «доверие» у системы Google. Выход из под фильтра:

  • Просто подождать;
  • Набирать так называемый траст, поставить на себя ссылки со старых тематических сайтов.

Песочница (или по научному SandBox)

Под фильтр песочница попадают молодые сайты. Основная причина заключается в низком доверии поисковика к сайту. От DomainNameAge, SandBox отличается тем, что под него могут попасть сайты на старых доменах, если эти сайты плохо или совсем не обновляются, не обрастают бэклинками и у них низкий уровень посещаемости.

Выход из под фильтра:

  • Наращивание естественных ссылок с тематических сайтов;
  • Развивать проект дальше.

Фильтры Google за манипуляции с внутренними факторами

Google Florida

Фильтр за чрезмерное использование инструментов оптимизации страницы. Один из самых старых фильтров использующий множество параметров для анализа.

Причина наложения фильтра - неправильная (слишком частое употребление «ключевиков» в тексте, чрезмерное выделение ключевых слов тегами и т.д.).

Последствия - сайт существенно теряет позиции в выдаче.

Выход из под фильтра - заменить всю сео-оптимизированную текстовку на хорошо читаемую (сократить плотность вхождений ключевых слов и фраз). Если не помогает, то на страницах попавших под фильтр оставьте только одно прямое вхождение ключа. Вот так выглядел алгоритм Флориды:

Очень страшно и не понятно 🙂 Сейчас этого фильтра как такового нет, он существовал 7 - 5 лет назад, после чего Гугл его прикрыл, поняв его не состоятельность, ведь фильтр накладывался на определённые страницы, а не сайты и по этому оптимизаторы создавали по несколько версий сайта, одна часть переоптимизирована, а другая недооптимизирована, чтоб обмануть алгоритм этого фильтра. Сейчас работает более лояльная модификация этого фильтра, который уже по ювелирному оценивает содержимое страницы.

Google Supplemental Results или просто Сопли

Перенос сайта из основного раздела в дополнительные разделы поиска. Проверить можно таким способом - Посмотреть основную выдачу таким запросам:

site:сайт/& или site:сайт/*

потом посмотреть всю выдачу:

Разница между запросами 2 и 1 будет ровняться количеству страниц находящимися под фильтром.

Выход из под фильтра:

  • Удаление повторяющихся страниц;
  • Уникализация каждой отдельно взятой страницы;
  • Покупка на зафильтрованные страницы трастовых ссылок;
  • Уникализация title и мета-тегов; * - самое главное
  • Написать полностью уникальный контент; * - самое главное
  • Убрать битые ссылки.

У Шакина например половина страниц под соплями и не смотря на это, с Гугла идёт хороший трафик.

Google Omitted Results

Перенесение сайта из основного раздела выдачи в опущенные результаты поиска Налаживается на страницы, которые по своей структуре и содержанию очень схожи со страницами других сайтов или страницами этого же сайта. Может применяться одновременно с фильтром Supplemental Results.

Признаки - сайт отсутствует в основной выдаче, но он находится, после нажатия на ссылку «повторить поиск, включив опущенные результаты». Выглядит это чудо вот так:

Выход из под фильтра:

  • Сделать продвигаемые страницы уникальными(контент, мета-теги);
  • Удалить все дубли.

Google Duplicate Content

Фильтры Google за манипуляции ссылками

Google Bombing

Фильтр за одинаковые анкоры ссылок. Если на ваш сайт ссылается много сайтов и анкоры ссылок везде одинаковые, то сайт попадает под фильтр и бэки начинают передавать вес намного меньше.

Признаки - проседание позиций или застрявание сайта на одних и тех же позициях длительное время, нет результата от увеличения ссылок на ваш сайт.

Методы выхода и защиты:

  • добавить в анкор-лист новых, разбавленных слов.
  • Увеличить количество естественных ссылок (тут, клик и.т.п.)

Google -30

Накладывается за использование клоакинга, редиректов и других методов черной оптимизации. Признаки: падение сайта примерно на 30 позиций.

Методы выхода и защиты:

  • Стараться не использовать чёрные методы продвижения;
  • Если уже попали под фильтр, то скорей всего дальше будет бан.

ReciprocalLinksFilter и LinkFarming Filter

Понижающие фильтры за искусственное наращивание . Накладываются за участие в сетях по обмену ссылками, наличие линкопомоек и покупку ссылок на сайте. При этом у сайта наблюдаются понижение позиций или бан.

Методы выхода и защиты:

  • осторожно работать с покупкой, продажей и размещением ссылок;
  • устранить причины наложения фильтра.

Co-Citation Filter

Фильтр за бэки с сайтов, ссылающихся на “плохие” сайты. В общем если на вас ссылается сайт и в то же время он ссылается на какие-нибудь ГС (запрещенные тематики и т.п.), то это плохо.

Методы выхода и защиты: - старайтесь получать ссылки только с хороших и тематических сайтов.

To Many Links at Once Filter

Фильтр за быстрый прирост бэклинков. Надо во всём соблюдать естественность и набор ссылочной массы тоже должен быть естественным, тем более для молодого сайта.

PS: Очень буду благодарен за ваш ретвит.

UP:08.01.2017

Последние годы основные фильтры у Google стали Панда и . Первый пессимизирует сайты за использование не качественного контент, а второй соответственно, за продвижение с помощью SEO ссылок.