Не для кого не секрет, что есть определенный контингент людей, которые мало смыслят в продвижении своего сайта.
Но зависть к конкурентам — большое дело. Такие люди как правило большинство своего времени посвящают войне с конкурентами, а не продвижению собственного сайта.

Я никогда не участвовал в подобных деяниях, так как понимал, что оно вернется и нужно развивать свой сайт, а не смотреть на конкурентов. Также стоит помнить, что конкурентов в выдаче 9 и от вылета одного сайта вам легче не станет.
Более того, у меня был даже увлекательный опыт — когда я договорился с своим конкурентом и мы воевали за первое место в Яндексе по одному небольшому СЧ запросу,
дававшему хорошие деньги. Раз в месяц смотрели , кто выше — тот выиграл, тот получает 10 баксов.

Было интересно даже — менял дескрипшион, оптимизировал статью, закупал ссылки.
Чего только не сделаешь, чтобы не скучать.

Не так давно мой знакомый поделился со мной инфой — ему конкурент какой то выбил позиции в Яндексе путем несложных манипуляций. Я не поверил, что подобное вообще может действовать.
Тем не менее договорились, что поучаствуем в эксперименте, в котором будем валить свои же сайты. Я выделил 3 сайта, знакомый 2 сайта под снос позиций (получил разрешение от знакомого на любые внешние действия).

Посещаемость сайтов — 100-300 человек в сутки:
Движки
joomla
DLE
Wordpress
Kandidat

Все сайты до 1 года, кроме сайта на joomla(больше 3 лет).

Все сайты имели стабильный трафик, даже Пингвин-Панды их не тронули (ссылочного было очень мало).
Дальнейшие действия — каждый сайт был проанализирован, найдены косяки, связанные с .htaccess и robots.txt (на некоторых своих сайтах я их специально реализовал).
Далее были закуплены ссылки на дублирующие страницы, на ссылки с www
Пример действий для Кандидата:
Закупка ссылок на страницы
http://site.ru/index.php
http://www.site.ru/index.php
http://www.site.ru/

и других внутренних страниц
Закупки на дубли главной велись в сапе, дешевые ссылки, точные вхождения практически, с околоссылочным.

WordPress
На теги, метки, дубли страниц, архивы.
В DLE кроме подобных действий использовался баг одного из плагинов, в результате чего создаются дополнительные страницы (для WP этот баг тоже пробовал).

Также в DLE было нарегано несколько сотен профилей с ссылками на разные сайты + все это загналось в аддурилку и пинг.
На сайт с Joomla закупались ссылки на дубли(хотелось бы указать, что эти дубли существовали еще до начала эксперимента,причем в индексе).

Результат эксперимента:

Пессимизация сайтов на Кандидате, WP и DLE. На эксперимент ушло порядка 2 месяцев, но оно того стоило.
Самый сильный пинок получил сайт на Кандидате — у него из 10 страниц стало больше 20 шт, поменялась релевантная страничка по основному запросу.
Падение трафика в Яндексе в 3 раза. Гугл практически не отреагировал на подобные действия.

WP сайт потерял больше половины своего трафика в Яндексе — и это при том, что у него наблюдался до начала эксперимента постоянный рост.
Также у сайта повылазили куча дублей, а как я раньше говорил — дубли это путь к АГС.

DLE сайт показал интересную картину — вылезло сначала порядка 100 профилей в индексе, что никак не отразилось на трафике. Но буквально через пару апов — резкая пессимизация.
Профили начали резко вылетать из индекса. Ухудшилась индексация в гугле, повылетали устойчивые страницы, сайт ушел в дополнительный индекс практически на 100%

Сайт на Джумле практически не отреагировал на подобные действия, дубли были раньше , возможно поэтому. Была небольшая просадка трафика, связанная не с действиями, а отваливанием пары хороших ссылок на сайт по конкретному запросу в топе. Возможно повлияло также то, что сайт находился очень длительно в индексе(порядка 3 лет) и был очень устойчив.

Вывод:

Эксперимент показал, что молодые сайты можно валить внешними факторами. И пусть Садовский, Метсы рассказывают вам байки о том, что внешними пессимизировать нельзя — оставим это на их совести.

Пост написан не для того, чтобы все кинулись валить конкурентов, а защитили свои сайты, выполнив часть мер, которые полностью решают данную проблему.
Это во первых — реализация 301 редиректа в .htaccess . При этом прошу обратить внимание на частый вопрос — как лучше всего делать — с www или на без www ?
Дело в том, что для поисковых систем www.site.ru и site.ru — это 2 разных сайта.
Соответственно если не сделать редирект (перенаправление) с одного на второй — возможно внутреннее дублирование, когда сайт проиндексируется и с www и без.
Я рекомендую делать все таки редирект с www на без www. В некоторых случаях бывает, что одна с ПС проиндексировала с www сайт, а другая без. В таком случае лучше ориентироваться при склейке на количество ссылок на домен. Например вы в сапе окупали ссылки с www — значить склеить стоит все таки с без www на www , а не как обычно.

Неправильная склейка как правило приводит к вылету позиций до 1-2 месяцев (проверенно на горьком опыте).
Внимание! В многих cms существует баг, когда главная доступна по адресам site.ru , site.ru/ , site.ru/index.php (или site.ru/index.html). Нужно настроить перенаправление с этих страниц (301 редирект) на основной домен(url).

В таком случае конкуренты умышленно меняют
релевантную страницу, делая финт — докупая на главную вашу страницу ссылки с прямым вхождением , а на дубль — правильные ссылки с разбавлением. Результат жестокий — смена релевантной страницы в Яндексе. Подобный же финт часто делается с внутренними страницами.

Дальнейшая защита — это написание правильного robots.txt
А именно — закрытие всех дублей на сайте. Многие даже не понимают, какой вред они несут (особенно в Яндексе). Внутреннее дублирование — самый быстрый способ попасть под АГС. Тут даже возраст сайта вас не спасет.
При использовании стандартных robots.txt следует учесть, что они сделаны для сайтов с стандартным набором плагинов. Многие плагины плодят дубли, будьте готовы их закрывать.

Автор

С 2007 года занимаюсь созданием контент проектов и их монетизацией. Seo специалист, блоггер.

19 комментариев

  1. Валерий Ответить

    Часто на серче появляются темы «как завалить конкурента?»! Как люди не понимают, что лучше деньги и силы потратить на продвижение своего проекта. А они как был где то позади, так и останутся, только на место конкурента, придет другой конкурент.

    • Devvver Ответить

      Это еще да. =)
      Я не так давно встречался с похожим человеком.
      По его словам у него всего 4 конкурента.
      Каждый день его начинается с прокликивания в выдаче в чужой выдаче с возвратом в браузер(типа пытается откаты увеличить), клики по Директе и Adwords рекламе.
      При этом своим сайтом человек банально не занимается. на вопрос — зачем кликать по объявлениям ответил : «так они 100% по моим кликают».
      Мысль о том, что возможно таким образом он можеть делать даже + (путем увеличения ctr компании конкурента) он не задумывается.
      У меня он с ходу поинтересовался «Как завалить конкурентов в выдаче? Мешают. Вот если бы их не было — все бабки были бы мои».
      При этом мысль, что начав с ними войну — они ответят тем же — ему не приходит.

  2. Евгений Ответить

    Здравствуйте. Когда-то начитался о заработке на сайтах. Мечтал о пассивном доходе. Создал один такой ГС МФА. И в общем всё оказалось не так оптимистично, как это описывалось в статьях. Скачки в поисковиках, постоянная борьба за позиции. Подскажите, пожалуйста, реально нанять оптимизатора и иметь действительно пассивный доход? Потому как сейчас заработок совсем смешной.

    • Валерий Ответить

      Наверно чтобы был пассивный доход, то одним оптимизатором не обойтись. Если оптимизатор будет выполнять полностью всю работу, то смысл ему зарабатывать для вас деньги, а вы с них будете платить ему зарплату, естественно меньшую от заработка :)

  3. Мизаил Ответить

    Великолепная статья! (мысли вслух)

  4. Вячеслав Ответить

    Лучше перебдеть чем недобдеть))) И оставить для индексации только то, что нужно.
    Чтобы закрыть все .php файлы от индексации, нужно добавить в robots.txt такие строчки:
    Disallow: /*.php$

    А для кандидата не помешает также добавить:
    Disallow: /*.dat$
    Disallow: */main.html
    Disallow: /404.html
    Ну и категории закрыть.

  5. unic Ответить

    В Drupal есть специальные модули для скрытия дублей (301 редиректом), не надо ничего делать руками :)

  6. Елена Ответить

    как Вы планируете восстановить трафик на испытанных сайтах?

    • Devvver Ответить

      ну во первых — убрать то, что было сделано.
      Настройка robots.txt и 301 редиректа, снятие покупных ссылок на дубли. Нужно понимать,
      что эти сайты не было жалко, поэтому и ушли под эксперимент.

      • Если еще не поздно, то прошу довести эксперимент до логического завершения.
        Внещние ссылки/факторы — _не снимать_, а выводить сайт только внутренними факторами: 301, robots.txt

  7. Добрый Дядя Ответить

    в гугле и того проще- у знакомого вальнули сайт сидевший в топе по хорошим ключам (англоадалт) даже не прибегая к прокачиванию ошибок внутренней оптимизации.
    В результате выбило из топ3 за 50+, какие то кючи вообще в жопу мира улетели, траф с 3-4к просел до 50.
    На все про все ушло по ходу дела несколько недель.
    Причем до гениального просто и бюджет (в прикидку) от силы 300-400$, то есть фактически заработок сайта за пару дней.

  8. Диман Ответить

    Очень интересная и познавательная статья. На самом деле защита и продвижение своего сайта зависит от цели его создания. Если у меня есть познавательный сайт и я планирую зарабатывать на нем, например, размещением рекламных баннеров, то скажите, зачем мне нужны дополнительные элементы защиты? А что касаемо продвижения то использую сервисы обмена посетителями.

  9. Анна Ответить

    Меня давно интересует тема заработка в сети, поэтому на данную тему читаю все, что только не попадется в интернете. Уже созрела для создания своего сайта и нашла человека, который этим будет заниматься. О раскрутке тоже позаботилась, а вот о конкурентах как-то не подумала. Спасибо за предоставленную информацию.

    • Alex Lat Ответить

      В принципе, автор прав: нужно с внутренними факторами внимательней работать, тогда и конкуренты особо досаждать не будут.

  10. Ярослав Ответить

    А когда склейку лучше делать?(301)
    Подождать когда сайт полностью проиндексируется? или лучше изначально сделать?

    • Ярослав Ответить

      я имел ввиду что сайт только запускается… )))

      • Devvver

        Нужно делать сразу. Более того, следить, чтобы ссылки не закупались на неправильный домен (очень частая ошибка).

  11. andrew87 Ответить

    Не подскажете по такому вопросу: теги(метки) это тоже дублирование? Не сделаю ли хуже для перелинковки и индексации если уберу их, потому как всегда все біло нормально с индексацией и ранжированием? И еще, ставлю их всегда в админке при написании поста вордпресс и в плагине Platinum Seo.

    • Devvver Ответить

      Да, это дублирование. Если сайт изначально проиндексировался с метками — можно при их закрытии получить и минус — просядет посещаемость. Но тут уж думай сам — это все равно что ездить на машине без тормозов — вроде бы и работает, а с другой стороны — если нужно будет тормозить мало не покажется.

Написать комментарий