Понедельник, 20.05.2024, 03:49
Главная Регистрация RSS
Приветствую Вас, Гость
Наш опрос
Оцените мой сайт
Всего ответов: 3
Статистика

Онлайн всего: 2
Гостей: 2
Пользователей: 0
Форма входа
Поиск
Календарь
«  Октябрь 2011  »
ПнВтСрЧтПтСбВс
     12
3456789
10111213141516
17181920212223
24252627282930
31
Главная » 2011 » Октябрь » 11 » Фильтры поисковых систем: фильтры Яндекса и фильтры Google (Гугла)
17:22
Фильтры поисковых систем: фильтры Яндекса и фильтры Google (Гугла)

Поисковые системы, в заботе о пользователях, стараются отсеять сайты, которые на их взгляд кажутся не подобающими и не заслуживающими место в поисковой выдаче. Чтобы осуществить этот самый отсев, поисковые системы используют специальные фильтры. Конечно, нам известны далеко не все существующиефильтры поисковых систем, ибо поисковики хранят их в секрете, но кое какие все-таки выплыли наружу.

Фильтры Яндекса

Бан – этот фильтр Яндекса можно считать поистине самым страшным, так как при попадании под сей фильтр ресурс исключается из индекса поисковиков. Бан налагается с участием модератора при нарушении правила лицензии. При хорошем раскладе можно выйти из бана устранив его первопричину и написав об изменениях в службу поддержки Яндекса, обычно на рассмотрение писем такого рода уходит где-то тридцать дней. В худшем случае бан может оказаться пожизненным и тогда единственный выход – это смена владельца ресурса и начисто переписанный контент.
Обнуление ТИЦ происходит на автомате при попадании сайта под Яндекс фильтр бан. Вернуть обратно ТИЦ можно только вытащив ресурс из бана. В случае, если вы написали в службу поддержки и вам ответили, что сайт не под фильтром, тогда, возможно, это просто-напросто глючит движок поисковика и при следующем апдейте все вернется на круги своя.
Потеря позиций в поисковой выдаче – под этот фильтр попадают ресурсы, которые ставят слишком много исходящих ссылок на другие сайты. В случае попадания под фильтр ресурс нельзя будет найти по ключевым запросам. Этого можно избежать, снижая количество внешних ссылок.
Яндекс фильтр АГС (АГС-17 и АГС-30) – данный фильтр убирает из индекса ресурсы, например сателлиты, которые были созданы для поискового спама, отличительной чертой которых является наличие некачественного контента.
Непот – фильтр, применяющийся к ресурсам, которые подозреваются в продаже ссылок, ссылочном спаме и неестественности этих самых ссылок. Результатом этого фильтра будет неучет внешних ссылок с ресурса. К счастью, на позицию в поисковой выдаче этот фильтр не влияет.
Пессимизация – один из фильтров Яндекс , накладывающийся на ресурсы, которые совершают обмен ссылками с нетематическими ресурсами. Результатом этого фильтра так же будет неучет внешних ссылок с сайта. Так что старайтесь обмениваться ссылками только с сайтами близкими по тематике.
Ты последний – этот фильтр применяется к ресурсам, которые заподозрены в плагиате, то есть дублировании контента других интернет страниц. Результатом наложения данного фильтра будет долгое падение ресурса в поисковой выдаче. Сайт больше не будет появляться в выдаче по высокочастотным запросам. Выйти из под фильтра поможет замена уличенного контента на свой и уникальный.
Exceed Density Keywords filter применим к страницам плотность ключевиков которой зашкаливает. Оптимальной плотностью считается 4-6 %. Наказанием за такое нарушение является удаление страницы из индекса. Так что нужно держать себя в руках, расставляя ключевики.
Редирект фильтр применяется к ресурсам, которые пользуют Java Script редирект. Чаще всего это явление встречается на дорвеях, изначальная задача которых – перенаправить посетителя на другой ресурс. Данный фильтр незамедлительно отправляет ресурс в бан.
Links Text – под этот фильтр попадают ресурсы, которые не имеют ключевые поисковые запросы в заголовках и своем контенте. Не самый страшный фильтр, он приводит лишь к тому, что вместо описания ресурса выдается случайный текст, который был найден на страничке. Исправить это легко, всего-навсего нужно использовать мета-теги для описания ресурса.
Фильтры Google

Существует мнение, что фильтры Гугл сильнее в своем действии в англоязычной части интернета, нежели русскоязычной. Так что очень может быть, что не все фильтр работают в русскоязычной среде сети.


Sandbox ака песочница – этот фильтр накрывает молодые сайты, которые были созданы не ранее 6 месяцев назад. Из-за этого фильтра поисковая система не выдает страницы этих сайтов в поисковой выдаче по высокочастотникам. Благо, этот фильтр особо не затрагивает низкочастотные запросы, по ним сайт вполне может оказаться в выдаче поисковика. К сожалению, сайт может просидеть в песочнице очень долгое время – от трех месяцев до нескольких лет. Выходом из песочницы может стать хорошая набранная масса естественных ссылок с уважаемых ресурсов.
Bowling – так называют методы черной раскрутки сайтов, которые конкуренты могут использовать, чтобы дискредитировать ваш сайт и занести его в бан. Этот фильтр актуален для новых сайтов с низким уровнем доверия (Trust Rank). Хотя Гугл и утверждает, что конкуренты никоим образом не смогут повлиять на позиции вашего ресурса, есть смысл подать заявку на включение вашего ресурса в индекс, если есть подозрение, что конкурент все-таки отправили вас в бан.
Дополнительные результаты – фильтр Google , который помещает страницы, которые считает недостойными, ниже нормальных, как бы под индекс. При таком раскладе увидеть эти страницы в поисковой выдаче можно будет лишь тогда, когда поисковик сочтет, что нормальных страниц не хватает. Чтобы выйти из-под фильтра понадобится несколько внешних ссылок на ваш сайт.
Bombing – данный фильтр применим к ресурсам, имеющим слишком много ссылок с одинаковым анкором. Избежать попадания под этот фильтр можно используя уникальные анкоры для каждой покупной ссылки.
Возраст домена – фильтр, похожий на песочницу. Есть мнение, что чем старше домен, тем больше у него уровень доверия. К сожалению, молодые ресурсы могут попасть под этот фильтр, проскочив песочницу. Чтобы избежать данного фильтра, опять-таки стоит наращивать ссылочную массу с авторитетных источников.
Дублирующийся контент – фильтры Google , которые понижают сайты с украденным содержанием в выдаче. Так что размещайте только уникальный контент и смотрите, чтобы его никто не украл. Если заметите плагиат с вашего ресурса, может обратиться в Гугл.
Фильтр -30 применяется к ресурсам, которые используют запрещенные методы SEO: дорвеи и редиректы. При обнаружении оных, ресурс понижается по запросам на тридцать пунктов.
Опущенные результаты – данный фильтр влечет за собой выпадение из результатов поисковой выдачи, он распространяется на ресурсы, которые имеют маленькое количество ссылок на себя, заголовки и другие мета-теги, которые повторяются, дублированный контент с других ресурсов или же плохая внутренняя перелинковка страниц.
Социтирование – фильтр, который отслеживает ссылки на ваш сайт и их источники. Если на вас ссылается ресурс инородной тематики, это может повредить тематичности вашего, так как поисковик может приписать вас к той же тематике, что и ссылающийся сайт. Вследствие чего ваш сайт может упасть по тематическим запросам. Дабы этого избежать берите ссылки с ресурсов однородной тематики.
Links – под этот фильтр Гугла попадают страницы, созданные специально для обмена ссылками (линкопомойки). Такой способ уже не эффективен для повышения позиций в выдаче и более того, он не поощряется поисковой системой
Много ссылок сразу – фильтр применяется к сайтам, у которых чересчур быстро увеличивается количество внешних ссылок. Итогом этого может стать бан со стороны поисковой системы. Так что покупать ссылки следует по чуть-чуть.
Чрезмерная оптимизация – фильтр, попасть под который могут сайты с чрезмерным количеством ключевиков и мета-тегов.
Битые ссылки – применяется, когда поисковые роботы находят ссылку, которая ведет на отсутствующую страницу, и они не могут туда добраться, а значит и проиндексировать ее. Это отрицательно влияет на результат поиска и на показателях качества сайта. Поэтому следует избавиться от таких ссылок.
Отфильтровка страниц по времени загрузки. В случае, если страница очень долго загружается от того, что она перегружена эффектами или же имеет проблемы с хостингом, робот может отказаться от ее индексации и она так и не попадет в поисковую выдачу.
Степень доверия ака Google Trust Rank – в данный фильтр включены все показатели перечисленные выше, он учитывает возраст сайта, количество и качество входящих ссылок, количество исходящих ссылок, качество внутренней перелинковки страниц сайта и т.д. И чем выше степень доверия, тем лучше позиции сайта в поисковой выдаче.
Категория: раскрутка сайта | Просмотров: 456 | Добавил: Webmaster | Теги: google, Фильтры поисковых систем, yandex | Рейтинг: 0.0/0
Всего комментариев: 0
Имя *:
Email *:
Код *: