Сегодня очень много сайтов с Яндексе попадают под фильтр АГС 17 или 30. При этом многие создают сайты и не могут понять, за что накладывается подобный фильтр. Я расскажу, какими методами можно не только справиться с фильтром, но и предотвратить его появление.
Для начала экскурсия в историю. Данному фильтру более 3 лет. Ранее он тоже работал, но механизмы были другие, очень мало сайтов попадало под фильтры. В 2009 году, когда количество сайтов под SAPE очень увеличилось, появился обновленный АГС 17. У него было более 100 параметров определения некачественных сайтов. Как правило после его применения на сайте оставалось 1-11 страниц. Характерными признаками также было то, что в индексе оставались страницы категорий.
В 2010 году появился АГС 30. Более улучшенный механизм поиска некачественных сайтов(количество параметров увеличилось, фильтр стал самообучаемый) сносил десятки тысяч сайтов.
Давайте разберемся в причинах наложения фильтра АГС 17 -30
1) Некачественный,Не уникальный контент. Малое количество текста на странице
2) Дублирование контента внутри сайта
3) Большое количество страниц, созданных для ПС, а не людей
4) Большое количество внешних ссылок с сайта
5) Стандартные шаблоны сайтов
Давайте разберем каждый пункт по отдельности.
Что по поводу контента. Фильтр АГС был предназначен в самую первую очередь для борьбы с не уникальным контентом. В это время были очень актуальны парсилки контента, когда с помощью парсинга RSS создавались сайты на тысячи страниц и пихались в сапу. Удар пришелся в первую очередь на такие сайты. Многие сайты тогда также содержали мало контента — пример — генерированные магазины с картинкой и небольшим описанием(понятное дело не уникальным). Парсеры Маркет, МаркетГида,Торг.Маила,Озона — самые актуальные вещи для создания ГС под сапу. Скажу еще, что они очень быстро самоокупались и спрос был очень хороший.
По поводу дублирования внутри сайта. Тогда для увеличения количества страниц в сапе создавали метки,облака и так далее. Таким образом сайт с 100 постами мог в сапе иметь до 500-600 страниц. Именно с подобными страницами и началась борьба. В первую очередь пострадали сайты на известных cms — WordPress, Joomla,DLE.
Именно в них самое большое количество дублей среди известных мне cms. После того, как начался накладываться фильтр сеошники наконец стали обращать внимание на robots.txt и стали закрывать дубли, профили и другие страницы,генерируемые цмс.
Также немало фильтр покосил сайтов с продаваемыми ссылками. Как правило все подобные сайты были зафильтрованы в поиске и единственный заработок с них был — продажа ссылок. АГС косил в первую очередь подобные сайты, в особенности сайты, которые продавали много ссылок с страницы.
Ну и по поводу шаблонов — поисковая система Яндекс хорошо может определять как структуру, так и cms. Не исключение — шаблоны сайтов. По подобным признакам часто под фильтры попадали сайты с стандартными дизайнами.
В данный момент количество страниц в индексе очень увеличивается. Если раньше максимально оставалось 11 страниц, сейчас я видел, что АГС оставляет и 22 и максимально 56 страниц. Поэтому говорить о каком то конкретном числе — бессмысленно. Как правило это число зависит от таких факторов, как уникальность, количество категорий.
Как же бороться с фильтром АГС? Что делать. если фильтр уже наложен Яндексом?
а)Во первых, посмотрите свой robots.txt и закрывайте все дубли. Присмотритесь к структуре. Не дублируется у вас очень большой участок текста на весь сайт? Постарайтесь удалить его или закрыть в <noindex>
б)Далее — если вы продаете ссылки с сайта — снимите сапу или другую биржу. Если у вас большое количество не уникальной информации — добавьте рерайта, копирайта.
в)Постарайтесь сменить структуру сайта. Включите ЧПУ на сайте.
г)Если у вас очень много ссылок на главную страницу сайта — прикупите ссылки на внутренние страницы сайта. Купите несколько хороших трастовых ссылок.
д)Добавляйте уникальный контент, это очень хорошо сказывается на условия выхода с фильтра АГС.
е)Если у вас ГС, а не СДЛ — не рекомендую писать в поддержку Яндексу, платонам. После проверки асессором вы получите стандартный ответ и фактически сами прекратите существование своего сайта.
Как правило на выход с фильтра уходит до 2-3 месяцев. В данный момент мне лично удалось вывести 4 сайта из 5, которые у меня попали под АГС 30.
Если сайт после 2-3 месяцев не выходит с фильтра — тогда снесите указанный сайт и залейте туда тематический красивый сайт, желательно псевдо фирмы и пишите Платонам. Шанс выхода вырастает в разы.
Таким образом на своем опыте могу утверджать, что с АГС 30 можно и нужно бороться.
13 комментариев
Очень уважительно к вам отношусь из-за серий статей про adsense, но то что вы написали в статье — это мягко говоря, вы вводите в заблуждение народ. Вы пересказали ту информацию, которая гуляет в инете, но это очередной миф, которым кормят «заинтересованные лица». У меня все сайты соответствуют вашим критериям для получения фильтра и все очень хорошо живут. Вы совсем не упомянули про такой важный фактор, как время … время в индексе, через какое время сайт торгует ссылками и т.п. Неуникальный контент, дубли страниц — это всё фигня! Вот если домен зарегестрирован вчера, а завтра уже 1К страниц и 1К внешних ссылок, то это уже повод попасть под АГС и даже БАН, но некоторые сайты и через это проскакивают. По вашим критериям Яндекс должен забанить гугл в первую очередь за не уникальный контент! Очень важен хостинг. Например, свой сервер — это очень серьёзная пилюля от АГС!!! Не регистрируйте по пачке доменов в один день у одного регистратора и тем более с одним общим словом или словоформой!
Ладно, что-то я увлёкся … Поверьте мне на слово про то, что я написал, а лучше проверьте и напишите про эксперимент!
Все написанное — свой опыт вывода с АГС. Так что о мифах тут говорить — банально.
По поводу того, что сайты живут — это все до определенного момента. У меня тоже пачки сайтов в сапе жили.
В один момент — бац и все.
По поводу своего сервера и так далее — представил, как Яндекс определяет, ваш это сервер или нет
«Алло, это ваш сервер? Вот вам защита от АГС, работайте дальше».
Еще раз пишу для других комментаторов. что фильтр складывается из совокупности факторов. На вашем сайте могут быть дубли, но очень хороший контент, может быть не уникальный, но зато сидящий в индексе уже 3 года контент. Вас фильтр обойдет, если быть точнее — даст вам отсрочку, как только совокупность факторов увеличится — получите АГС или другой бан.
Фильтр — это совокупность всех факторов, негативно влияющих, которые показывают, что ваш сайт некачественный.
Все остальные комментарии в стиле — у меня сайт с 500 дублями, не уникальный, но пока живет — будут удаляться.
Привет.
В принципе все верно :) и я не буду с тобой спорить, вот только я пользуюсь абсолютно аналогичными методами но успехи гораздо хуже.
Но по сути то… я больше согласен с Сергеем, в том смысле что все написанное в статье — это банально гуляющая инфа уже 3 года по всему инету. Я понимаю что ты описывал свой опыт.. Но все же опыт Сергея описанный в двух трех строках кажется ценнее, тем что он оригинальней :)
Могу добавить от себя что лучший способ вывода из АГС — иммитация РЕАЛЬНОЙ НОРМАЛЬНОЙ жизни БЕЛОГО сайта. ну или создание такой :)
То есть было бы не плохо прикупить трафику — помагает. Не много совсем, а уж после трафика купить пару трастовых ссылок. (по логике вообще если у Вас нет трафика — откуда ссылки появяться :) ? )
АГС 30 вообще косит и косит сайты. Надоело уже, что даже белым проектам, если уж по ошибке туда залетели, выбрать практически невозможно.
Здравствуйте.
Помогите вытащить интернет магазин из под фильтра, платону писал, ответ пока не был дан,
Контент сайта не уникальный, продукция.
Можно разбавить с уникальным текстом?
У фирмы это третий сайт, но теперь интернет магазин. Возможно Яндекс фильтр дал за это. Потому что у второго сайта в яндексе только 5 страниц. Сайту уже много лет. Народ идет только с гугла.
Гугл за не уникальность текста дает фильтр?
можно ли продвигать сайт в гугле? имеет смысл? страниц в гугле 20.000, люди от туда то приходят около 10 чел. в день то вообще не приходят.
Народ с гугла в интернет магазин не идет.
Еще в описании сайта было много кей и мета, исправил.
Что делать создать новый сайт с уникальным текстом ? На другой ip сервер чтобы не выглядело что такая же фирма. Хотя продукция другая, иногда скрещивались с другими сайта владельца.
ГТА, вполне возможно наложение нескольких фильтров, аффилиат+АГС. Чуствую. что там не одна проблема, а комплекс. Отпишите в аську или скайп, гляну сайт.
По-моему, пункт стандартные шаблоны сайтов лучше поменять на кривые шаблоны сайтов. Т.к. стандартных миллионы и многие из них хорошо себе живут. =)
Вы уверены что стандартный шаблон увеличивает шансы попадания под фильтр АГС?
Более чем уверен. не уникальная структура — первый шанс попадания под АГС. Пример — чаще всего попадают под АГС сайты на распространённых cms, чем самописных. Причина именно в уникальных шаблонах, с не повторяющейся структурой сайта.
У меня на одном из моих блогов яша выкинул практически все страницы из поиска, из почти 300 осталось 10, со мной таких казусов ещё не было, и не знаю ни причину не что делать. Платону писала, но пока не ответа не привета.
Вы забыли одну очень и очень важную вещь — это внутренняя перелинковка! Чем более страницы сайта связаны между собой — тем менее вероятность попадания под разные яндексоидные фильтры, в том числе и АГС. Даже при слабом контенте… Сие проверено не единожды!
Подобное замечено не было. Часто перелинковка порождает большое количество страниц(дублей), тот же пример — облако тегов в DLE , WordPress и других CMS.
Так что не согласен.
Меня Яндекс тоже в свое время АГСом наградил. Страницы начали выпадать из индекса не сразу, а по немного каждые 2-3 дня. Я сначала на тег canonical грешил, Платону написал порядка 5 писем — все в бестолку, только стандартные ответы. Когда писать надоело, решил у себя проблему искать, и нашол! Во-первых, закрыл ссылки от индексации в комментариях (там больше было спама чем пользы). В добавок сменил структуру меню и шаблон.