Google подтвердил три фактора, которые могут увеличить сканирование Googlebot. Вот как использовать эти знания в работе
Гэри Иллис и Лиззи Сассман из Google&rsquo обсудили три фактора, вызывающих усиленное сканирование Googlebot. Хотя они умаляли необходимость постоянного сканирования, они признали, что существуют способы побуждать Googlebot повторно посещать сайт.
1. Воздействие высококачественного содержимого на частоту сканирования
Одна из вещей, о которой они говорили, была качество веб-сайта. Многие страдают от выявленной неиндексированной проблемы, и это иногда вызвано определенными методами SEO, которые люди научились и считают их хорошей практикой. Я занимаюсь поисковой системой поисковых систем в течение 25 лет, и одна вещь, которая всегда оставалась неизменной, заключается в том, что лучшие практики, определенные отраслью, в целом на годы отстают от того, что делает Google. Однако трудно понять, что не так, если человек убежден, что он все делает правильно.
Гэри Иллис поделился причиной повышенной частоты сканирования на 4:42 минуте, объяснив, что одним из триггеров высокого уровня сканирования являются сигналы высокого качества, которые выявляют алгоритмы Google.
Гэри сказал это на 4:42 минуте:
“…в общем, если содержимое сайта имеет высокое качество, он является полезным и нравится людям, тогда Googlebot& ndash;на Google–имеет тенденцию сканировать больше с этого сайта”
В приведенном выше утверждении есть много недостающих нюансов, например <сильный>которые есть сигналы высокого качества и полезностисильный> что заставит Google решать сканировать чаще?
Ну, Google никогда не говорит. Но мы можем предполагать, и ниже приведены некоторые из моих обоснованных предположений.
<стр.>Мы знаем, что существуют патенты о фирменном поиске, которые засчитывают фирменные поиски, сделанные пользователями как скрытые ссылки. Некоторые люди думают, что “приятные ссылки” упоминаются бренды, но “упоминаются бренды” совершенно не то, о чем идет речь в патенте.
Кроме того, есть патент Navboost, существующий с 2004 года. Некоторые люди отождествляют патент Navboost с щелчками, но если вы прочтете настоящий патент с 2004 года, вы увидите, что в нем никогда не упоминается рейтинг кликов (CTR). В нем говорится о сигналах взаимодействия пользователя. Клики были темой интенсивных исследований в начале 2000-х годов, но если вы прочтете исследовательские статьи и патенты, легко понять, что я имею в виду, когда это не так просто, как “обезьяна щелкает веб-сайт в результатах поисковой выдачи Google ставит его выше, обезьяна получает банан.
В общем, я считаю, что сигналы, указывающие на то, что люди воспринимают сайт как полезный, я считаю, что это может помочь веб-сайту получить лучший рейтинг. И иногда это может дать людям то, что они ожидают увидеть, дать людям то, что они ожидают увидеть.
Владельцы сайтов скажут мне, что Google оценивает мусор, и когда я посмотрю, я пойму, что они имеют в виду, сайты вроде бы мусорные. Но, с другой стороны, содержимое дает людям то, что они хотят, поскольку они действительно не знают, как отличить то, что они ожидают увидеть, от настоящего качественного содержимого (я называю это алгоритмом Froot Loops).
Что такое алгоритм Froot Loops? Это результат доверия Google к сигналам удовлетворенности пользователей, чтобы оценить, доставляют ли им удовольствие результаты поиска. Вот то, что я раньше опубликовал об алгоритме Froot Loops от Google:
“Вы когда-нибудь прогуливались в супермаркете с зерновыми и обращали внимание на то, сколько насыщенных сахаром сортов зерновых выстроилось на полках? Это и есть удовлетворенность пользователей в действии. Люди ожидают увидеть зерновые сахарные бомбы в своих зерновых рядах, и супермаркеты удовлетворяют эти намерения пользователей.
Я часто смотрю на Froot Loops на зерновом проходе и думаю: “Кто это ест?” Пожалуй, многие люди так и вот почему коробка стоит на полке супермаркета – как люди ожидают увидеть это там.
Google делает то же, что и супермаркет. Google показывает результаты, которые, скорее всего, удовлетворят пользователей, подобно зерновому ряду.
Примером мусорного сайта, который удовлетворяет пользователей, является популярный сайт рецептов (я не буду называть его), который публикует неаутентичные рецепты легкого приготовления и использует ярлыки, такие как грибной суп из банка как ингредиент. Я достаточно опытна на кухне, и эти рецепты вызывают у меня ужас. Но люди, которых я знаю, любят этот сайт, потому что они действительно не знают лучше, они просто хотят простой рецепт.
На самом деле разговор о полезности состоит в том, чтобы понять онлайн-аудиторию и дать ей то, что она хочет, отличается от того, что она хочет. Понять, чего хотят люди, и дать им это, на мой взгляд, то, что поисковики найдут полезным и позвонит в колокола Google&rsquo о помощи.
2. Повышенная издательская деятельность
Еще одна вещь, которая, по словам Ильиса и Сассмана, может заставить Googlebot больше сканировать, это увеличение частоты публикаций, например, если сайт внезапно увеличил количество страниц, которые он публикует. Но Иллис сказал, что в контексте сломанного сайта, внезапно начавшего публиковать больше веб-страниц. Взломанный сайт, который публикует много страниц, заставит Googlebot больше сканировать. подразумевает, что увеличение активности публикаций может вызвать увеличение активности сканирования. Робот Googlebot чаще сканирует не то, что сайт был сломан, а увеличение количества публикаций.
Вот где Гэри цитирует всплеск публикационной активности как триггер Googlebot:
<цитата>
“…но это также может означать, что, я не’не знаю, сайт был сломан. А затем появляется куча новых URL-адресов, которые захватывают Googlebot, а затем он исчезает, а затем ползает, как сумасшедший.&&rd; 62~
Много новых страниц заставляет Googlebot восхищаться и сканировать сайт “как сумасшедший” есть вынос там. Дальнейшие детали не нужны, давайте идем дальше.
3. Постоянство качества содержимого
Гэри Иллис продолжает вспоминать, что Google может просмотреть общее качество сайта, что может повлечь за собой снижение частоты сканирования.
“…если мы не ползаем много или постепенно замедляемся во время сканирования, это может быть признаком низкого качества содержимого или того, что мы переосмыслили качество сайта. ”
Что имеет в виду Гэри, когда говорит, что Google “переосмыслил качество сайта?” Я считаю, что иногда общее качество сайта может снизиться, если есть части сайта, которые не соответствуют стандартам качества оригинального сайта. По моему мнению, исходя из вещей, которые я видел на протяжении многих лет, в какой-то момент содержание низкого качества может начать преобладать над хорошим содержимым и потянуть за собой остальную часть сайта.
Когда ко мне приходят люди, говоря, что они “каннибализм относительно содержимого” Когда я смотрю на это, они действительно страдают от проблемы низкого качества содержимого в другой части сайта.
Приблизительно на 6-й минуте Лиззи Сассман спрашивает, повлияло ли то, что содержимое веб-сайта было статичным, не улучшалось или ухудшалось, а просто не изменялось. Гэри отказался ответить, просто сказав, что Googlebot возвращается, чтобы проверить сайт, чтобы увидеть, изменился ли он, и говорит, что “вероятно” Googlebot может замедлить сканирование, если не будет изменений, но объяснил это заявление, сказав, что он не знал.
Что-то, что осталось непроизносимым, но связано с постоянством качества содержимого, заключается в том, что иногда тема меняется, и если содержимое статическое, оно может автоматически потерять релевантность и начать терять позиции. Поэтому целесообразно проводить регулярный аудит содержимого, чтобы проверить, изменилась ли тема, и если да, обновить содержимое, чтобы оно оставалось актуальным для пользователей, читателей и потребителей, когда они ведут разговоры на тему.
< h2>Три способа улучшить отношения с Googlebot
Как объяснили Гэри и Лиззи, дело не в том, чтобы тыкать Googlebot, чтобы заставить его вернуться, только ради того, чтобы заставить его сканировать. Дело в том, чтобы подумать о своем контенте и его связи с пользователями.
<сильный>1. Или содержание высокого качества?сильный>
Содержимое касается темы или ключевого слова? Я вижу, что сайты, которые используют стратегию содержимого на основе ключевых слов, страдают от обновлений основного алгоритма 2024 года. Стратегии, основанные на темах, как правило, создают лучшее содержание и проходят через обновление алгоритма.<сильный>2. Увеличение издательской активностисильный>
Увеличение публикационной активности может привести к тому, что робот Googlebot будет приходить чаще. Независимо от того, произошло ли это потому, что сайт сломлен, активизировал ли сайт свою стратегию публикации содержимого, регулярный график публикации содержимого — это хорошо и всегда было хорошо. Нет “установить и забыть” когда речь идет о публикации контента.<сильный>3. Постоянство качества содержимого
Качество содержимого, актуальность и релевантность для пользователей в течение длительного времени является важным фактором, который гарантирует, что Googlebot будет продолжать приходить поздравлять. Снижение любого из этих факторов (качество, актуальность и релевантность) может повлиять на сканирование Googlebot, что само по себе является симптомом более важного фактора, то есть того, как сам алгоритм Google рассматривает содержимое.Слушайте Google Search Off The Record Podcast, который начинается примерно на 4-й минуте: