Гари Иллис из Google продолжает предупреждать профессионалов по SEO и владельцев веб-сайтов о проблемах с сканированием параметров URL.

  • Гэри Иллис предупреждает о проблемах с параметрами URL-адреса на LinkedIn.
  • Он рекомендует использовать robots.txt для управления параметрами URL.
  • Это имеет значение, поскольку влияет на сканирование сайта и эффективность индексации.

Гэри Иллис из Google недавно осветил постоянную проблему SEO на LinkedIn, повторяя беспокойство, которое он ранее высказывал в подкасте Google.

Проблема? Параметры URL-адреса вызывают трудности поисковым системам, когда они&сканируют веб-сайты.

Эта проблема особенно актуальна для крупных сайтов и интернет-магазинов. Когда к URL-адресу добавляются различные параметры, это может привести к созданию многих уникальных веб-адресов, которые ведут к одинаковому содержимому.

Это может мешать поисковым системам, снижая эффективность сканирования и надлежащего индексирования сайтов.

Загадка параметров URL

И в подкасте, и в публикации на LinkedIn Иллис объясняет, что URL-адреса могут содержать бесконечное количество параметров, каждый из которых создает отдельный URL-адрес, даже если все они указывают на то же содержимое.

Он пишет:

<цитата>

“Интересной особенностью URL-адресов является то, что вы можете добавлять бесконечное (я называю BS) количество параметров URL-адреса к пути URL-адреса, и таким образом , по существу, формировать новые ресурсы Новые URL-адреса даже не должны сопоставляться с разным содержимым на сервере, каждый новый URL-адрес может просто обслуживать то же содержимое, что и URL-адрес без параметров, но все они являются разными URL-адресами. Хорошим примером этого является параметр URL-адреса блокировки кэша в ссылках на JavaScript: он не меняет содержимое, но принудительно обновляет кэши. ~p>Он привел пример того, как простой URL, например “/путь/файл” можно расширить до “/path/file?param1=a” и “/path/file?param1=a&param2=b“, все потенциально обслуживают идентичное содержимое.< /p>

“Каждый [является] разным URL-адресом, все одинаковые содержимое,” Иллис отметил.

Случайное расширение URL & Его последствия

Поисковые системы иногда могут находить и пытаться просканировать несуществующие страницы на вашем сайте, которые Иллис называет “фальшивыми URL-адресами.”

Они могут появляться из-за таких вещей, как плохо закодированные относительные ссылки. То, что начинается как сайт обычного размера с примерно 1000 страницами, может разрастаться до миллиона фантомных URL-адресов.

Этот взрыв фейковых страниц может привести к серьезным проблемам. Работы поисковых систем могут сильно поразить ваши серверы, пытаясь просканировать все эти несуществующие страницы.

Это может перегрузить ресурсы вашего сервера и потенциально привести к сбою вашего сайта. Кроме того, это тратит бюджет поисковой системы на сканирование ненужных страниц вместо вашего содержимого.

Наконец, ваши страницы могут не сканироваться и не индексироваться должным образом, что может повлиять на рейтинг вашего поиска.

Illyes утверждает:

<цитата>

“Иногда вы можете случайно создать эти новые фальшивые URL-адреса, расширив свое пространство URL-адресов из приятных 1000 URL-адресов до безумного 1 миллиона, захватывая сканеры, которые, в свою очередь, неожиданно ударяют ваши серверы, расплавляя свирели и свистки влево и вправо. Плохие относительные ссылки являются относительно распространенной причиной. Но robotstxt — ваш друг в этом случае.

Сайты электронной коммерции, наиболее пострадавшие

В сообщении на LinkedIn специально не обращались к интернет-магазинам, но в обсуждении подкаста было установлено, что эта проблема важна для платформ электронной коммерции.

Эти веб-сайты обычно используют параметры URL-адреса для отслеживания, фильтрации и сортировки продуктов.

Как следствие, вы можете увидеть несколько различных URL-адресов, указывающих на ту же страницу продукта, причем каждый вариант URL-адреса будет представлять выбор цветов, параметров размера или место, откуда пришел клиент.

< h2>Устранение проблемы

Illyes постоянно рекомендует использовать robots.txt для решения этой проблемы.

В подкасте Иллис выделил возможные исправления, например:

  • Создание систем для обнаружения дубликатов URL
  • Лучшие способы для владельцев сайтов сообщать поисковым системам о своей структуре URL
  • Использование robots.txt более разумным способом управлять работами поисковых систем

Устаревший инструмент параметров URL

При обсуждении подкаста Ильиес коснулся прошлых попыток Google решить эту проблему, включая неподдерживаемый инструмент параметров URL-адреса в Search Console.

Этот инструмент позволял веб-сайтам указывать, какие параметры важны, а какие можно игнорировать.

Когда в LinkedIn спросили о потенциальном возвращении этого инструмента, Иллис скептически отнесся к его практической эффективности.

Он сказал: “теоретически да. на практике нет,” объясняя, что инструмент страдал от тех же проблем, что и robots.txt, а именно то, что “люди не могли’за свою дорогую жизнь понять, как управлять своими собственными параметрами. /p>

Последствия для SEO и веб-разработки

Это текущее обсуждение от Google имеет несколько последствий для SEO и веб-разработки:

<ол>

  • Бюджет сканирования: Для больших сайтов управления параметрами URL может помочь сэкономить бюджет сканирования, обеспечивая сканирование и индексацию важных страниц.
  • Архитектура сайта: разработчикам может понадобиться просмотреть структуру URL-адресов, особенно для крупных сайтов электронной коммерции с многочисленными вариантами продуктов.< /li >
  • Фасетная навигация: сайты электронной коммерции, использующие фасетную навигацию, должны помнить о том, как это влияет на структуру URL-адреса и возможность сканирования.
  • Канонические теги: канонические теги помогают Google понять, какую версию URL-адреса следует считать основной.
  • Почему это важно

    Google обсуждает проблемы параметров URL-адреса в нескольких каналах, что указывает на искреннюю обеспокоенность качеством поиска.

    Для экспертов отрасли, быть в курсе этих технических аспектов важно для поддержания видимости поиска.

    Пока Google работает над решениями, рекомендуется проактивное управление URL-адресами и эффективные указания для сканера.