Содержание

Данная статья опубликована Matthew Woodward и это всего лишь перевод с моими комментариями. Мне показалось важным то что данный автор систематизировал много заявлений Джона Миллера и показал, что любым заявлениям Гугла доверять нельзя.

Самое интересное в утекших документах — это возможность сравнить данные с публичными заявлениями Google.

Google заявил, что они не используют оценку спама.

 твит Джона Мюллера : Google не использует спам-оценку

Но это не совсем так…

…Потому что мы видим, что в утекших документах действительно существует рейтинг спама :

спам-оценка

Я использовал появившиеся в паблике данные Google, чтобы развеять 15 других SEO-мифов, представленных ниже.

Миф №1: Google не использует данные о кликах Chrome

Начнем с большого…

Google часто отрицает , что данные о кликах пользователей Chrome использовались для определения рейтинга в поисковой выдаче.

На самом деле, они довольно громко об этом заявили:

 твит о CTR

Не только это…

Гэри Иллис публично раскритиковал Рэнда Фишкина и идею использования CTR для влияния на поисковые рейтинги в своем Reddit AMA.

«Время задержки, CTR, какой бы ни была новая теория Фишкина, это, как правило, выдуманная чушь. Поиск гораздо проще, чем думают люди».
— Гэри Иллис

Подобные заявления на протяжении многих лет неоднократно подтверждались другими старшими членами команды Google.

Что говорит утечка о данных о кликах

Но просочившаяся документация по API, похоже, говорит о другом…

Вопреки заявлениям Google, утечка предполагает, что Google действительно использует данные Chrome для оценки авторитета всего сайта и показателей вовлеченности пользователей.

Модуль API « NavBoost » (который появляется 50 раз в утекшем API) описывается как «повторное ранжирование на основе журналов кликов о поведении пользователей».

Одно это уже довольно безумно.

Это предполагает, что взаимодействие пользователей с браузером Chrome действительно отслеживается и используется для оценки веб-сайтов.

Вот еще несколько показателей и систем , которые могут использовать данные Chrome для ранжирования:

  • NavBoost – (упоминалось выше) Объединение запросов на основе журналов кликов.
  • badClicks, clicks,goodClicks – данные о кликах классифицируются как хорошие, нормальные и плохие.
  • unsquashed MobileSignals – данные о кликах, специфичные для мобильных устройств.
  • signals . Использует сигналы поведения пользователей (клики и т. д.) для корректировки рейтинга.
  • SiteEngagementScores — обобщенная оценка вовлеченности пользователей.
  • SiteClicks – рейтинг кликов для отдельного сайта.
  • TopicClicks – рейтинг кликов для тематических страниц.
  • ImageQuality ClickSignals — сигналы качества от кликов по изображениям.
  • chromeCounts — собирает данные о взаимодействии из Chrome.
  • chromeInTotal —  отслеживание просмотров Chrome на уровне сайта.
  • InstantChromeViews –  отслеживание просмотров страниц AMP через Chrome.

Собирается много данных о кликах и взаимодействии, и, если вы их пропустили, они также отслеживают данные о кликах, специфичные для мобильных устройств.

Вот вывод :

Несмотря на то, что Google преуменьшает значение данных о кликах, утечка предполагает, что они используют их (много) за кулисами для настройки поискового рейтинга.

Время для нового браузера?

В данном случае удивляет необознанность автора о том что поведенческие факторы давно используются в выдаче Гугла. Еще в 2015-2016 годах были публичные эксперименты по накрутке и они были успешные. Почему же массово не крутят Гугл? Дело в том, что Гугл предпочитает профили с временем жизни от 4-6 месяцев, тогда как у Яндекса и двухнедельные профили работают. Как следствие накрутка в Яндексе дорогая и доступна для ниш с хорошим доходом. Стоимость же рабочих профилей для Гугла будет в десятки раз дороже, никто не готов тратить такие инвестиции в профиля, проще с Яндексом работать.

Миф № 2: У Google нет внутреннего показателя авторитетности сайта

Google постоянно отрицает существование показателя типа «авторитет домена».

Они публично заявили, что ТОЛЬКО отдельные страницы оцениваются на основе их PageRank.

В видео ниже Джон Мюллер сказал, что у них нет рейтинга авторитетности веб-сайта:

Не только это…

В Твиттере ( сейчас удаленный твит ) он также сказал:

Авторитетный твит страницы Джона Мюллера

Звучит довольно определенно, не так ли?

Но эти утверждения не совсем верны…

Что говорит утечка о внутреннем авторитете сайта

Утечка алгоритма Google подтверждает существование метрики под названием siteAuthority .

Метрика siteAuthority, похоже, подразумевает, что Google ранжирует веб-сайты на основе их предполагаемого авторитета.

Они могут даже играть значительную роль в алгоритме ранжирования Google.

Мы не знаем наверняка, какое влияние (если таковое имеется) siteAuthority оказывает на рейтинг.

Но опять же…

Google явно собирает данные и, по крайней мере, измеряет авторитет каждого веб-сайта.

Чтобы внести ясность : «siteAuthority», вероятно, сильно отличается от «авторитета домена» Moz DA и «рейтинга домена» Ahrefs DR. Оба эти показателя авторитета тесно связаны друг с другом.

Также стоит упомянуть, что существует оценка PageRank, а также оценка на уровне сайта:

Измерение SiteAuthority от Google, скорее всего, представляет собой комбинацию факторов. Не основано только на одном, вот несколько примеров возможных компонентов:

  • sitePr – PageRank или авторитет сайта.
  • pagerank2 – еще одна версия PageRank.
  • homepagePagerankNs . Показ более высокого «PageRank» домашней страницы может быть еще одним сигналом авторитета.
  • IndexingDocjoiner DataVersion — извлекает данные со множества страниц для определения общего авторитета и опыта сайта по теме.
  • AuthorityFeedback – использует граф знаний и сущности для оценки авторитета.

Миф №3: «Песочницы» не существует

Этот миф был развеян много лет назад в результате индивидуального тестирования, поэтому это не стало сюрпризом. Но приятно видеть, что утечка подтверждает, что оптимизаторы по поисковой оптимизации были на правильном пути.

Для контекста: песочница Google не позволяет новым веб-сайтам ранжироваться до тех пор, пока они не докажут свою надежность.

Большинство SEO-специалистов считают, что это длится около 3-6 месяцев.

Google всегда отрицал существование какой-либо «песочницы».

Вот что они говорили раньше:

Джон Мюллер:  «песочницы» не существует

Что еще?

Ознакомьтесь с ответом Джона Мюллера здесь на вопрос о наличии в алгоритме Google новой песочницы Google.

Его ответ не вселяет в тебя уверенности, верно?

И теперь мы, возможно, знаем, почему!

Песочница всегда была, но чаще всего работала в сильно конкурентных нишах. Все помнят топы с страницами имеющими возраст от 5-7 лет. Но тут больше влияли все факторы, так как обычно в таких нишах ссылочное — это десятки, сотни мощных линков и новый сайт просто не в состоянии быстро нарастить такое ссылочное

Что говорит утечка о песочнице

Утечка выявила метрику под названием « hostAge ».

Похоже, этот показатель показывает, что Google измеряет возраст домена.

Это также убедительно свидетельствует о том, что в алгоритм встроен механизм песочницы.

Джон Мюллер в прошлом также отвечал «Нет», когда его спрашивали, имеет ли возраст домена значение для рейтинга.

И это может быть правдой.

Но зачем Google собирать данные о возрасте домена, если они ими не пользуются?

Возраст сайта может быть фактором ранжирования в некоторых нишах, но это не указывает что обязательно должна быть песочница. Мне кажется тут автор натягивает сову на глобус

Миф № 4: Специалисты по оценке качества не помечают веб-сайты

Google нанимает специалистов по оценке качества для оценки качества и релевантности результатов поиска.

Они следуют строгим правилам, изложенным в Руководстве для оценщиков качества поиска .

Рассматривайте эти рекомендации как подробный документ, который рассказывает оценщикам качества, как правильно оценивать веб-сайты для поиска.

Google всегда открыто заявлял о существовании оценщиков качества поиска и их роли.

НО…

В ходе встречи в Google Джон Мюллер сказал, что оценщики качества « не специально помечают сайты » и « это не то, что мы бы использовали там напрямую». «

Но правда ли это?

Короткий ответ: Это не так выглядит.

Что говорит утечка об асессорах

Термин « EWOK » встречается в API несколько раз, ссылаясь на платформу асессоров для оценки качества текстов.

Более того, некоторые элементы показывают, что информация, собранная оценщиками качества, сохраняется, например:

  • isCorrectRange
  • ratingSource
  • raterCanUnderstandTopic

Но некоторые важные атрибуты, обнаруженные во время утечки, указывают на существование « Золотых документов ».

  • Golden это флаг, который оценщики качества присваивают определенным страницам веб-сайта.
  • isReadable сигнализирует о качестве контента, показываемого оценщикам, потенциально влияя на то, как алгоритмы проверяют качество контента на предмет ранжирования.

Вероятно, это означает, что этот контент можно пометить как высококачественный и в конечном итоге получить преференции в рейтингах.

Довольно безумно, правда?

Суть здесь в следующем:

Если ваш сайт посетит оценщик качества, велика вероятность, что его мнение может повлиять на ваш рейтинг.

Очень удивительное замечание автора, ведь все знали, что некоторые сайты (Википедия, правительственные сайты и т.д.) ранжировались по своим правилам.

Миф №5: Google не поддерживает обновление старого контента

Я всегда считал, что свежесть играет важную роль в рейтинге контента.

Почти каждый раз, когда я обновляю старые публикации, они повышаются в рейтинге.

Google подчеркивает важность свежего контента, но не дает четкого представления о том, насколько он важен.

Что еще?

Они зашли так далеко, что заявили, что Google не одобряет свежий контент.

Посмотрите этот теперь удаленный твит Джона Мюллера:

Джон Мюллер твит: Google не любит свежий контент

Правда в том, что свежесть действительно имеет значение – возможно, большее, чем думает большинство из нас.

Что утечка говорит о свежести контента

Утечка документов показывает, что Google рассматривает 127 атрибутов, связанных с актуальностью контента и сигналами, основанными на дате:

  • bylineDate – дата в подписи статьи.
  • SyntacticDate — даты, встроенные в URL-адрес.
  • semanticDate — Даты в содержимом страницы.

Вот некоторые атрибуты, подтверждающие утверждения о том, что контент следует поддерживать:

  • adjustmentInfo, date  указывает, когда страница в последний раз «существенно» обновлялась (например, более крупные блоки контента).
  • timeAnnotations  вероятно, используется для отслеживания свежести контента, известного фактора ранжирования.

Это показывает, что Google измеряет время последнего обновления контента.

Вероятно, это означает, что Google отдает приоритет «свежему» контенту в результатах органического поиска.

Похоже, что в этом алгоритме есть слои, которые по-разному обрабатывают чувствительный ко времени и новостной контент:

  • чувствительность ко времени – учитывает темы, связанные со временем, сокращая время ранжирования страницы.
  • NewspaperSpecific – последние новостные статьи из надежных источников могут иметь преимущество в результатах поиска.

На основе этой информации для нас стратегически ничего не меняется. Но приятно знать, что Google активно измеряет свежесть.

Мой совет?

Поддерживайте актуальность вашего контента и регулярно обновляйте важные страницы.

Все логично, есть ниши где актуален только обновленный контент, к примеру юридическая. Вас ведь не интересуют неактуальные законы. Для подобных ниш и запросов у Гугла есть отдельных алгоритм.

Миф №6: Отличный контент от AL с E-EAT и контент созданный людьми рассматриваются одинаково

Google любит говорить, что контент, независимо от того, создан ли он искусственным интеллектом или людьми, оценивается и вознаграждается одинаково.

По мнению Google, ключевым моментом является демонстрация отличного EEAT:

  • Опыт
  • Экспертиза
  • Авторитетность
  • Надежность

что такое EEAT в SEO

В прошлом Google также заявлял, что контент с искусственным интеллектом вполне хорош, если он соответствует стандартам качества.

Вот что говорится в их документе «Руководство по поиску» :

Центр Google Поиска: рекомендации по созданию контента с помощью ИИ

Это буквально открыло дорогу для тысяч веб-сайтов с генерацией контента созданным искусственным интеллектом.

Ирония?

Google допустил те же ошибки, опубликовав собственные обзоры искусственного интеллекта, призывающие людей есть камни :

есть камни

Но люди, похоже, забывают, что Google может развернуться на 180 градусов в любой момент.

И похоже, что они сделали это с контентом AI.

Они просто никому не сказали!

Посмотрите на последствия обновления ядра в марте 2024 года: веб-сайты, использующие контент ИИ, были уничтожены.

Утечка документов API может дать нам некоторое представление о том, почему это так…

Что говорит утечка о ИИ-контенте

Термин « золотой » появляется в утечке API как флаг, обозначающий документ «золотого стандарта».

Что это значит?

Примечания к атрибуту указывают на то, что флаг придает дополнительный вес контенту, написанному человеком, по сравнению с контентом, написанным искусственным интеллектом.

Он также может предоставить преференции, когда дело доходит до рейтинга.

В какой степени мы не знаем. И как Google измеряет эту разницу, мы тоже не знаем.

Что мы точно знаем, так это то, что Google отменил свои собственные обзоры ИИ .

Все логично, поэтому Гугл и без проблем определяет генерированный контент. Зачем его определять? В большинстве случает у него низкое качество.

Миф №7: Google не вносит сайты в белый список

Google уже много лет настаивает на том, что он не вмешивается в ранжирование вручную.

Алгоритм создает равные условия игры. Лучший контент будет ранжироваться.

Вот почему люди так доверяют результатам поиска Google.

Вот что Джон Мюллер говорил ранее:

Джон Мюллер твит: Интернет не ранжируется вручную

Но утечки говорят о другом…

Что говорит утечка о белых списках сайтов

Это показывает, что Google поддерживает белые списки для определенных типов контента.

Например, некоторые доверенные сайты, похоже, пользуются особым вниманием во время выборов или для информации, связанной с COVID.

В просочившихся документах API есть два конкретных термина:

  • isElectionAuthority – может повысить рейтинг в результатах поиска, связанных с выборами.
  • isCovidLocalAuthority – это может повлиять на ранжирование запросов, связанных с пандемией.

Белый список выборов утечки API

Похоже, это указывает на существование белых списков для выборов и новостей, связанных с COVID. Возможно, эти сайты получили большую известность и высокий рейтинг при освещении этих тем.

Существуют также атрибуты, которые предполагают, что к проверенным сайтам можно применять множители рейтинга.

  • isEditorial — проверяет, проверялось или курировалось содержимое вручную.
  • AuthorityFeedback — проверяет информацию из авторитетных источников, таких как граф знаний известных авторитетных лиц.

Несмотря на то, что Google заявляет о своей беспристрастности , утечка показывает, что он имеет право внести в белый список любой сайт, который пожелает.

Вполне вероятно, что они уже есть.

Страшная штука.

Миф №8: Обратные ссылки не важны

Обратные ссылки уже давно считаются главным фактором ранжирования.

Но в последнее время Google последовательно преуменьшает их важность.

Вот пара утверждений, которые стоит обдумать:

Ссылки на твиты Джона Мюллера как фактор ранжирования

Потом два года спустя…

Джон Мюллер заявил следующее в ходе вопросов и ответов на конференции BrightonSEO:

«Но я думаю, что со временем [ссылки] не будут таким важным фактором, как сегодня. Я думаю, что это уже немного изменилось». — Джон Мюллер

Что говорит утечка об обратных ссылках

Ссылки важны, и они здесь, чтобы остаться.

Особенно это касается качественных и разнообразных обратных ссылок с авторитетных сайтов. Это также согласуется с актуальностью ключевых элементов ранжирования, таких как PageRank.

В просочившихся документах упоминается более 136 атрибутов, ориентированных на входящие ссылки, некоторые ключевые атрибуты включают в себя:

  • linkWeight – указывает систему оценки силы ссылки в рейтинге.
  • PageRank – оценка, учитывающая различные факторы, значительную часть которых составляют ссылки.
  • penguinPenalty  – ясность в том, что штраф в виде пингвина по-прежнему оценивает текст привязки ссылки.

Вот еще несколько фрагментов, которые, вероятно, подчеркивают важность входящих ссылок и их качество:

  • linkData — ссылки внутри основного содержимого, окруженные релевантным текстом, являются четким сигналом.
  • contentlink — определение ссылок внутри внешнего или внутреннего контента может быть ключевым фактором.
  • anchor, homepage — как Google определяет релевантность и авторитетность ссылок, ведущих на веб-сайт.
  • NumBackwardLinksInWoS – подсчет количества цитирований (обратных ссылок).

Я предполагаю, что обратные ссылки будут продолжать играть важную роль в поисковом рейтинге. Как еще Google будет расшифровывать качество?

Миф № 9: Уникальность анкоров не означает хорошего рейтинга

Теперь переходим к технике.

Но техника важна!

Джон Мюллер заявил в своем удаленном твите, что соотношение анкоров, количество слов и количество ссылок не являются показателями качества поискового рейтинга.

Индикаторы качества твита Джона Мюллера для якорного текста

Но это не совсем так.

Что говорит утечка

Утечка, похоже, показывает, что разнообразие обратных ссылок имеет решающее значение.

Самое важное не только количество обратных ссылок, но и их разнообразие и качество.

Разнообразные обратные ссылки с нескольких доменов сигнализируют Google о том, что контенту широко доверяют и на него ссылаются.

Вот как выглядит качественный профиль обратных ссылок.

Если цифры не указывают на качество, то почему существует 44 атрибута , специально измеряющих показатели количества якорей, например:

  • numIncomingAnchors – Количество входящих ссылок (анкоров).
  • AnchorSpamInfo – этот модуль фокусируется на анализе профиля привязки текста документа для выявления шаблонов спама.
  • AnchorStatistics — эти метрики предоставляют более подробную информацию о распределении текста привязки.

Утечка содержит целый модуль , демонстрирующий рекламный спам в анкорах.

Это также указывает на то, что текст привязки играет важную роль в качестве обратных ссылок, поскольку он имеет более 76 атрибутов на основе привязки.

Миф № 10: Не отказывайтесь от плохих ссылок, мы справимся с этим

Я всегда нервничаю, когда Google говорит: «Не волнуйтесь, мы обо всем позаботимся».

У них нет большого послужного списка доведения до конца. Я предпочитаю брать дело в свои руки.

И когда дело доходит до дезавуирования плохих ссылок, возможно, вам тоже стоит…

Вот что Google говорил ранее:

Джон Мюллер: токсичные ссылки создаются инструментами SEO

Это не все…

Джон Мюллер также подтвердил свои прошлые заявления в «недавно удаленном» комментарии на Reddit :

Джонс удалил комментарий с Reddit

Это довольно сильные заявления.

Что говорит утечка о плохих ссылках

Вопреки публичной позиции Google, эта утечка показывает, что плохие ссылки имеют значение.

Существует множество понижений в должности за спам-ссылки, а также системы оценки, которые могут наказывать сайты за спам-сигналы исходящих ссылок и якорный текст.

Например, в документации API присутствуют атрибуты « freaseAnchorSpamPenalty » и « spamrank ».

Судя по всему, это указывает на штрафы для сайтов, связанных со спам-ссылками и якорным текстом.

Это не то место, где вы хотите быть, другие включают в себя:

  • anchorCount — подсчет внутренних и внешних якорей для шаблонов спама.
  • penguinPenalty — Штрафы, применяемые алгоритмом Penguin .
  • penguinEarly AnchorProtected — возможно, некоторая ранняя защита от атак на ссылки на основе привязки.
  • spamProbability — анализ профиля привязки текста страницы на предмет выявления шаблонов спама.

Хотя Google советует вам не беспокоиться о спам-ссылках, утечки показывают, что игнорирование их может нанести вред рейтингу вашего сайта.

Я, например, не хочу полагаться на стратегию «надежды» , когда Google поймает это за меня.

Тут можно было логически понять, что если Гугл присваивает ссылкам с спамом отрицательный вес, значит смысла их не учитывать нет. А значит в теории конкуренты вполне могут потопить ваш сайт.

Миф № 11: Лучше получать ссылки со старых авторитетных страниц

Вот миф, который может стать неожиданностью…

Google часто подчеркивает важность качества и релевантности ссылок.

Они также упомянули, что ссылки не имеют срока действия – в худшем случае они могут со временем обесцениться.

В часы работы центрального офиса веб-мастеров Джона Мюллера спросили : «Срок действия ссылок истекает через некоторое время?»

Джон Мюллер тут же ответил: «Нет, срок их действия не истекает…»

Это кажется довольно простым. Но это может быть не вся история.

Что утечка говорит о старых ссылках

Утечки показывают, что ссылки с новых страниц более эффективны, чем ссылки со старых, авторитетных страниц.

В просочившихся документах API показаны два ключевых термина:

  • Freshdocs : множитель ценности ссылки, который может указывать на то, что ссылки с новых веб-страниц более ценны, чем ссылки, вставленные в старый контент.
  • CreationDate : дата создания ссылки.

Ключевой вывод здесь заключается в том, что по мере того, как страница становится менее важной для Google, ссылки могут со временем истечь или потерять свою силу.

Новые ссылки, похоже, оказывают более существенное влияние.

Имхо, но автор поста совсем не понял цель подобных параметров. При условии что ссылка появляется в новом контенте (статье) то как правило она потребует больше денег, чем вставить ссылку в старый контент, который уже опубликован 5 лет назад. Таким образом Гугл борется с размещением ссылок в старых статьях, в том числе с помощью арендных ссылок (Сапе привет)

Миф № 12: Ссылки на авторитетные сайты не улучшают ваш рейтинг

Google всегда подчеркивал важность цитат и ссылок.

И это хорошо!

Но они ни разу не указали на внутреннюю систему отслеживания точности и уровня достоверности ссылок, которые вы добавляете в свой контент.

Я имею в виду, зачем им это?

Они лишь преуменьшают идею о том, что ссылки на источники улучшают SEO:

Твит Джона Мюллера: ссылки на высококачественные сайты не повышают поисковую оптимизацию

Не только это…

Джон Мюллер удвоил свой твит:

Джон Твиттер

Что говорит утечка о ссылках на сайты с высоким авторитетом

Утечка документов предполагает, что действительно существует внутренняя система оценки цитирований и ссылок, особенно в нишах YMYL (Ваши деньги, ваша жизнь).

Они упоминают такие метрики, как « outlinkScore » и « outlinkDomainRelationship », которые, судя по всему, оценивают качество и релевантность исходящих ссылок.

Пристегнитесь для этого…

Вот что предлагают модули и атрибуты:

  • outlinkScore — указывает ценность исходящих ссылок.
  • outlinkDomainRelationship — оценивает связь между ссылающимся сайтом и связанным сайтом.
  • indexingConverter LinkRelOutlinks — анализирует исходящие ссылки на веб-странице на предмет качества и соответствия содержимому страницы.
  • webrefOutlinkInfos — исходящие ссылки страницы могут сигнализировать о ее авторитетности и актуальности, особенно если они указывают на другие высококачественные сайты.

Что это на самом деле значит?

Кажется, они показывают, что ссылки на качественные и релевантные внешние сайты МОГУТ повысить авторитет и надежность вашей страницы.

Это прямо противоположно тому, что Google говорил раньше.

Знаю, знаю.

Хотя это, возможно, не станет большим шоком, это должно стать тревожным звонком.

Google отслеживает ссылки на вашем сайте и за его пределами. Убедитесь, что ваш сайт ссылается только на авторитетные сайты, которые вы с уверенностью порекомендуете другу.

indexingConverter LinkRelOutlinks — параметр используется для оценки релевантности текста и ссылки и это очень правильно с точки зрения Гугла, чтобы SEO специалисты не размещали ссылки в нерелевантном контенте. OutlinkDomainRelationship может учитывать общие ссылки, при сильной близости (сайты ссылаются друг на друга или ссылочное закольцовано) полностью нивелировать его.

Миф № 13: Google не использует систему оценки токсичных ссылок

Google всегда заявлял, что не использует определенный спам-рейтинг для ссылок.

Джон Мюллер: Google не использует спам-оценку

Когда SEO-специалист спросил о «токсичных ссылках» Semrush на веб-сайте их компании.

Джон Мюллер ответил:

Джон Мюллер твит игнорирует оценку токсичного спама

Большинство оптимизаторов знают, что контент и качественные ссылки работают часто встречаются вместе.

Утечка подтверждает это.

Что говорит утечка о системе подсчета очков

Кажется, у Google есть несколько систем оценки ссылок.

Это указывает на более агрессивный подход к оценке ссылок, чем сообщалось публично.

На самом деле, весь граф ссылок Google очень сложен. Особенно, когда дело касается оценки токсичных ссылок.

В просочившихся документах API показан целый набор показателей ссылочного спама:

  • spamScore – оценивает уровень спама ссылок и упоминается 20 раз в документации API.
  • spamrank – значение от 0 до 65535, большее число указывает на вероятность того, что оно содержит ссылки на спамные или некачественные сайты.

С множеством различных ярлыков для штрафов за ссылки:

  • IndexingDocjoiner AnchorStatistics — этот модуль имеет набор атрибутов, которые говорят об обратном, например badbacklinksPenalized и penguinPenalty.
  • phraseAnchor SpamDemoted – Целью этого модуля является обнаружение и наказание за спам в анкорах.
  • spamPenalty — на основании этого анализа к окончательному расчету ссылки может быть применен штраф за спам.

Интересно, правда?

Меня очень впечатлил уровень, с которым Google измеряет качество ссылок. В какой степени это влияет на обратные ссылки, мы не знаем.

Но это явно противоречит тому, что они говорили в прошлом об отсутствии спам-оценки.

Миф № 14: Мы не используем авторство

Вот еще один миф, который циркулирует уже некоторое время…

Google утверждает, что их алгоритмы ранжирования не используют конкретный «показатель авторства» для ранжирования контента.

Еще в 2013 году Джон Мюллер сказал в Центре веб-мастеров :

«Мы не используем авторство для ранжирования».

Но эта позиция изменилась с появлением Schema…

В ходе видеовстречи 2021 года Джон Мюллер сообщил, что признание автора важно для Schema.

Какой из них верен?

Что утечка говорит об авторстве

Утечка документов показывает, что Google отслеживает информацию об авторстве . Google хранит авторов как сущности, а авторы являются явной особенностью его систем.

  • OceanVolumeImprint – Репутация и авторитет автора в своей области могут существенно повлиять на рейтинг в поисковых системах.
  • OceanDataDocinfo WoodwingItemMetadata — метаданные об авторе и категории статьи могут использоваться для оценки опыта, авторитета и актуальности темы.
  • isAuthor, isPublisher — сигнализирует о роли объекта в документе (автор, издатель), что потенциально влияет на оценку достоверности.
  • document AuthorPresence — анализирует информацию на уровне документа, например авторитетность авторства.

Это означает, что авторство — это четко определенный и намеренно интегрированный компонент в системах Google.

Это также означает, что алгоритмы Google специально распознают и используют информацию об авторах как фактор в процессе их ранжирования.

Это объясняет, как Google отслеживает «экспертизу» в EEAT.

Если это правда, автор вашего контента может влиять на то, как контент оценивается на предмет качества и релевантности.

Нижняя граница:

Авторство вернулось.

Миф № 15: Домены и поддомены рассматриваются одинаково

Google уже давно утверждает, что субдомены и домены одинаково учитываются в их рейтингах.

В 2017 году Джон Мюллер ответил на вопрос о том, что лучше для SEO: поддомены или подпапки:

«Веб-поиск Google хорошо справляется с использованием как поддоменов, так и подкаталогов.[…] Нам нужно научиться сканировать их отдельно, но по большей части это просто формальность на первые несколько дней. Короче говоря, используйте то, что лучше всего подходит для вашей установки». — Джон Мюллер

Эти утверждения подразумевают, что Google рассматривает субдомены так же, как и их основные домены, в отношении SEO и сканирования.

По данным Google, нет существенной разницы в том, как они обрабатываются для целей ранжирования.

Джон Мюллер- субдомен или домен

Это еще одно классическое заявление Google : «Не волнуйтесь, мы сделаем это за вас» .

Это похоже на токсичные ссылки из мифа №10.

Но утечка, похоже, показывает, что на самом деле это не так.

Что говорит утечка о доменах и поддоменах

Здесь есть две ключевые вещи:

  • Отдельная оценка: Google оценивает поддомены отдельно от основного домена.
  • Влияние на ранжирование. Такой отдельный подход может означать, что субдомены могут не получать такой пользы от авторитета основного домена, как мы думали.

Второй момент потенциально очень важен…

Это может означать, что вам придется отдельно повышать авторитет вашего поддомена И основного домена.

Это прямо противоречит тому, что Google говорил в прошлом, и на это стоит обратить внимание в будущем.

Поведение Гугла логичное, многие авторитетные площадки позволяют создавать или подпапки или отдельные домены 3 уровня для публикации своих статей (Пример — ЖЖ). В таком случае каждый отдельный поддомен — это отдельный сайт, и его нужно рассматривать отдельно, чтобы общий траст основного домена не позволял сильно высоко ранжироваться, это плохо, приводит к паразитному SEO.
Автор

С 2007 года занимаюсь созданием контент проектов и их монетизацией. Seo специалист, блоггер.

Написать комментарий

Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов.
Принять
Отказаться
Политика конфиденциальности