Гари Иллис из Google продолжает предупреждать профессионалов по SEO и владельцев веб-сайтов о проблемах с сканированием параметров URL.
- Гэри Иллис предупреждает о проблемах с параметрами URL-адреса на LinkedIn.
- Он рекомендует использовать robots.txt для управления параметрами URL.
- Это имеет значение, поскольку влияет на сканирование сайта и эффективность индексации.
Гэри Иллис из Google недавно осветил постоянную проблему SEO на LinkedIn, повторяя беспокойство, которое он ранее высказывал в подкасте Google.
Проблема? Параметры URL-адреса вызывают трудности поисковым системам, когда они&сканируют веб-сайты.
Эта проблема особенно актуальна для крупных сайтов и интернет-магазинов. Когда к URL-адресу добавляются различные параметры, это может привести к созданию многих уникальных веб-адресов, которые ведут к одинаковому содержимому.
Это может мешать поисковым системам, снижая эффективность сканирования и надлежащего индексирования сайтов.
Загадка параметров URL
И в подкасте, и в публикации на LinkedIn Иллис объясняет, что URL-адреса могут содержать бесконечное количество параметров, каждый из которых создает отдельный URL-адрес, даже если все они указывают на то же содержимое.
Он пишет:
<цитата>
“Интересной особенностью URL-адресов является то, что вы можете добавлять бесконечное (я называю BS) количество параметров URL-адреса к пути URL-адреса, и таким образом , по существу, формировать новые ресурсы Новые URL-адреса даже не должны сопоставляться с разным содержимым на сервере, каждый новый URL-адрес может просто обслуживать то же содержимое, что и URL-адрес без параметров, но все они являются разными URL-адресами. Хорошим примером этого является параметр URL-адреса блокировки кэша в ссылках на JavaScript: он не меняет содержимое, но принудительно обновляет кэши. ~p>Он привел пример того, как простой URL, например “/путь/файл” можно расширить до “/path/file?param1=a” и “/path/file?param1=a¶m2=b“, все потенциально обслуживают идентичное содержимое.< /p>
“Каждый [является] разным URL-адресом, все одинаковые содержимое,” Иллис отметил.
Случайное расширение URL & Его последствия
Поисковые системы иногда могут находить и пытаться просканировать несуществующие страницы на вашем сайте, которые Иллис называет “фальшивыми URL-адресами.”
Они могут появляться из-за таких вещей, как плохо закодированные относительные ссылки. То, что начинается как сайт обычного размера с примерно 1000 страницами, может разрастаться до миллиона фантомных URL-адресов.
Этот взрыв фейковых страниц может привести к серьезным проблемам. Работы поисковых систем могут сильно поразить ваши серверы, пытаясь просканировать все эти несуществующие страницы.
Это может перегрузить ресурсы вашего сервера и потенциально привести к сбою вашего сайта. Кроме того, это тратит бюджет поисковой системы на сканирование ненужных страниц вместо вашего содержимого.
Наконец, ваши страницы могут не сканироваться и не индексироваться должным образом, что может повлиять на рейтинг вашего поиска.
Illyes утверждает:
<цитата>
“Иногда вы можете случайно создать эти новые фальшивые URL-адреса, расширив свое пространство URL-адресов из приятных 1000 URL-адресов до безумного 1 миллиона, захватывая сканеры, которые, в свою очередь, неожиданно ударяют ваши серверы, расплавляя свирели и свистки влево и вправо. Плохие относительные ссылки являются относительно распространенной причиной. Но robotstxt — ваш друг в этом случае.
Сайты электронной коммерции, наиболее пострадавшие
В сообщении на LinkedIn специально не обращались к интернет-магазинам, но в обсуждении подкаста было установлено, что эта проблема важна для платформ электронной коммерции.
Эти веб-сайты обычно используют параметры URL-адреса для отслеживания, фильтрации и сортировки продуктов.
Как следствие, вы можете увидеть несколько различных URL-адресов, указывающих на ту же страницу продукта, причем каждый вариант URL-адреса будет представлять выбор цветов, параметров размера или место, откуда пришел клиент.
< h2>Устранение проблемы
Illyes постоянно рекомендует использовать robots.txt для решения этой проблемы.
В подкасте Иллис выделил возможные исправления, например:
- Создание систем для обнаружения дубликатов URL
- Лучшие способы для владельцев сайтов сообщать поисковым системам о своей структуре URL
- Использование robots.txt более разумным способом управлять работами поисковых систем
Устаревший инструмент параметров URL
При обсуждении подкаста Ильиес коснулся прошлых попыток Google решить эту проблему, включая неподдерживаемый инструмент параметров URL-адреса в Search Console.
Этот инструмент позволял веб-сайтам указывать, какие параметры важны, а какие можно игнорировать.
Когда в LinkedIn спросили о потенциальном возвращении этого инструмента, Иллис скептически отнесся к его практической эффективности.
Он сказал: “теоретически да. на практике нет,” объясняя, что инструмент страдал от тех же проблем, что и robots.txt, а именно то, что “люди не могли’за свою дорогую жизнь понять, как управлять своими собственными параметрами. /p>
Последствия для SEO и веб-разработки
Это текущее обсуждение от Google имеет несколько последствий для SEO и веб-разработки:
<ол>
ол>
Почему это важно
Google обсуждает проблемы параметров URL-адреса в нескольких каналах, что указывает на искреннюю обеспокоенность качеством поиска.
Для экспертов отрасли, быть в курсе этих технических аспектов важно для поддержания видимости поиска.
Пока Google работает над решениями, рекомендуется проактивное управление URL-адресами и эффективные указания для сканера.