Фильтры Google (Гугл) | Блог SEO in Site

Продвижение сайтов ведение блогов заработок в интернет SEO

Фильтры Google


фильтры Google

В сегодняшней статье мы поговорим про фильтры Google. Последние время Гугл стал более придирчивым к качеству сайтов, переняв некоторые подходы у Яндекса. Хотя, в общем, он все еще остается более лояльным, чем Яндекс. Давайте же рассмотрим, какие фильтры на данный момент существуют у Гугла.

Фильтры Гугла:

SandBox (песочница), фильтр применяется для молодых сайтов (доменов с небольшим возрастом), поскольку эти сайты обычно в течение года не вырастают до больших объемов, и не представляют интереса пользователю. Поэтому по высококонкурентным фразам страницы не попадают в результаты поиска, однако по некоторым ключевым словам сайт может присутствовать в выдаче. Хотя иногда под фильтр могут попасть и старые сайты, которые не обновляются и не имеют хорошей посещаемости.

Как обойти песочницу(Sandbox): Для этого нужно нарастить траст сайта (trust rank). Авторитетность вашего сайта можно увеличить путем ссылок на него с трастовых ресурсов, которым доверяют поисковики. Также нужно постоянно обновлять контент и следить за его качеством. К тому же вести непрерывную работу над увеличением посещаемости сайта.

DomainNameAge – фильтр возраст домена тесно связан с песочницей, применяется для сайтов, у которых домен недавно зарегистрирован. Отличается от песочницы, тем, что не обращает внимания на посещаемость и частоту обновления сайта.

GoogleFlorida – фильтр избыточная оптимизация, штрафует сайт за чрезмерную внутреннюю оптимизацию. Этот фильтр Гугл один из самых первых, и поэтому достаточно эффективный. Применение этого фильтра к сайту может привести к пессимизации сайта в результатах выдачи или к бану. Основной фактор попадания под него, это частое использование ключевых слов, или тегов форматирования текста.

Как обойти GoogleFlorida – для того, чтобы сайт не попал под фильтр, употребляйте оптимальную плотность ключевых и не злоупотребляйте мета тэгами.

Google Supplemental Result (дополнительная выдача) – попадание сайта в дополнительную базу Гугла. Которую поисковик использует для разбавления выдачи, если  нет релевантных страниц под запрос пользователя. Страницы к которым применен такой фильтр, не получат хороших показателей трафика на них. Фильтр Supplemental Results применяется к определённым страницам сайта, при подозрении на их не уникальность.

Как выйти из Supplemental Results -  для выхода из-под этого фильтра нужно избегать дублирования страниц. И не использовать шаблонных страниц с очень схожим содержимым, но разными адресами страниц, для всех страниц писать уникальные title.

GoogleDuplicateConten – дублирование контента, это фильтр Google, который применяется для сайтов которые размещают уже существующий и проиндексированный Гуглом контент. По сути дела воруя его с других сайтов. Как правило такие страницы понижаются в поисковой выдаче, а их Page Rank может быть обнулен. К тому же, если на эти страницы нет входящих ссылок, они будут отображаться только в supplemental results.

Как обойти GoogleDuplicateConten (дублирование контента). Если ваш сайт попал под фильтр Google Duplicate Content, то вам нужно избавится от дублированного контента. Вариантов может быть несколько: написать письмо тем, кто украл контент и попросить убрать, написать письмо хостингу, на котором расположен сайт и пожаловаться, обратится в тех поддержку Google и описать проблему. Так же прочитайте статью, защищаем контент, в которой я описывал способы борьбы с воровством контента. Проверить контент на уникальность, и узнать, кто его украл можно с помощью программы Advego Plagiatus.

BrockenLinksFilter – накладывается на сайты с огромным количеством битых (неработающих) ссылок, так как наличие битых ссылок свидетельствует о низком качестве ресурса.

Как не попасть под BrockenLinksFilter - Просто нужно следить за исходящими ссылками и проверять их работоспособность.

PageLoadTimeFilter – от этого фильтра страдают сайты с очень низкой скоростью загрузки. А так как долго ждать не нравится не поисковику не пользователям, Google накладывает этот фильтр на ваш сайт. В связи с этим может увеличиться время попадания страницы в индекс и занижения сайта в результатах выдачи.

Чтобы не попасть под PageLoadTimeFilter – Нужно постоянно следить за скоростью загрузки вашего сайта. Старайтесь использовать как можно меньше скриптов и плагинов, которые могут увеличивать нагрузку на сайт.

Google Panda (Гугл Панда) наказывает сайты за некачественный контент, переизбыток рекламы, большое количество отказов. То есть уже учитывает и поведенческие факторы. Больше о Google Panda можно почитать тут.

Чтобы избежать попадания под Гугл Панда, нужно делать сайты для людей, так как этот алгоритм учитует множество факторов в то числе и поведенческие.

Google Penguin (Гугл Пингвин) – фильтр Google о котором я писал здесь, который накладывает штрафные санкции на сайты которые получили ссылки с доноров низкого качества. В частности страдают сайты на которые введут ссылки с не тематических сайтов низкого качества, злоупотребляли ключевыми словами в анкорах.

Чтобы не попасть под Google Penguin, нужно следить за качеством доноров, разбавлять ссылки с анкором, безанкорными ссылками. Обратить внимания на инструмент от Google «Отклонение ссылок».

GoogleBombing – фильтр применятся для сайтов, у которых большинство ссылок с одинаковым или очень схожим анкором.

Во избежание попадания под GoogleBombing нужно разбавлять анкор лист при приобретении ссылок.

Google -30 Применяется к сайтам использующим «черные методы» оптимизации, такие как: дорвеи, редирект, клоакинг. Одним из признаков попадания сайта под этот фильтр, становиться резкое снижение позиций.

Выйти из под Google -30 практически нереально, если не отказаться от черных методов оптимизации за фильтром следует вечный бан сайта. Поэтому не прибегайте к «черным методом» оптимизации.

Co-Citation Filter — популярный фильтр «плохих соседей», который проверяет ваши входящие ссылки. И если вдруг Гугл покажется, что ссылка стоит на сайте доноре, ссылки с которого ведут в основном на сайты порно тематики, то ваш сайт (например, SEO тематике), который тоже ссылается на сайт донор, тоже потеряет репутацию в глазах Гугл!

Неправильное и не тематическое со-цитирование может навредить вашему сайту и его ранжированию, что сделает очень сложным ваш рост в выдаче по тематическим ключевым словам.

Как не попасть под Co-Citation Filter: более тщательно выбирайте партнеров для обмена ссылками, ссылки преобретайте с тематических или около тематических ресурсов и следите за качеством входящих ссылок.

To Many Links at Once Filter — под фильтр попадают сайты, которые за небольшой промежуток времени получают много входящих ссылок, так называемый «ссылочный взрыв».

Чтобы это избежать To Many Links at Once Filter, нужно плавно наращивать ссылочную массу, чтобы это казалось более естественными в глазах поисковика.

Reciprocal Links Filter - этот фильтр применяется к сайтам, которые продают ссылки в большом количестве, участвуют в автоматических системах продажи ссылок.

Избежать Reciprocal Links Filter можно, если быть предельно осторожным с количеством проданных исходящих ссылок на биржами, или не участвовать в них вообще.

Link.html Page Filter - этот фильтр накладывает штрафные санкции на сайты за присутствие страницы links.htm. Обмен ссылками Гугл не приемлет, поэтому, ваш сайт просядет в результатах выдачи.

Не попасть под Link.html Page Filter можно не используя страницу "Ссылки" для обмена ссылками, ставьте ссылки в текст статьи или попробуйте что-то вроде "друзья", это позволит вам не попасть под этот фильтр.


Комментарии (3)

  1. Crepeer | 12.06.2013 #

    Страницу однозначно в закладки, об некоторых фильтрах я и незнал.

  2. Tатьяна Паломи | 21.06.2013 #

    Столько фильтров, просто ужас! Наши проекты как маленькие корабли плывут по мелководью, а вебмастера как капитаны управляют кораблями и бояться напороться на очередной подводный камень, то есть фильтр.

  3. Дмитрий | 05.12.2013 #

    Офигеть, и подумать не мог, что все так запущено с Гуглом, раньше думал, что только Яндекс капризничает.

Оставить комментарий