Я бы хотел, чтобы Google игнорировал такие URL-адреса:
http://www.mydomain.com/new-printers?dir=asc&order=price&p=3
Все URL-адреса с параметрами dir, order и price следует игнорировать, но у меня нет опыта работы с Robots.txt.
Есть идеи?
Я бы хотел, чтобы Google игнорировал такие URL-адреса:
http://www.mydomain.com/new-printers?dir=asc&order=price&p=3
Все URL-адреса с параметрами dir, order и price следует игнорировать, но у меня нет опыта работы с Robots.txt.
Есть идеи?
Вот решения, если вы хотите запретить строки запроса:
Disallow: /*?*
или если вы хотите быть более точным в строке запроса:
Disallow: /*?dir=*&order=*&p=*
Вы также можете добавить в robots.txt, какой URL разрешить
Allow: /new-printer$
$
позаботится о том, чтобы разрешено было только /new-printer
.
Подробнее:
http://code.google.com/web/controlcrawlindex/docs/robots_txt.html
http://sanzon.wordpress.com/2008/04/29/advanced-usage-of-robotstxt-w-querystrings/
/new-printer
, но не /new-printers?dir=*&order=*&p=*?
?
- person Book Of Zeus; 05.02.2012
robots
- person PPB; 02.08.2017
Вы можете заблокировать эти конкретные параметры строки запроса со следующими строками
Disallow: /*?*dir=
Disallow: /*?*order=
Disallow: /*?*p=
Таким образом, если какой-либо URL-адрес содержит dir=
, order=
или p=
в любом месте в строке запроса, он будет заблокирован.
example.com?p=test
, но и example.com?top=test
.
- person rob006; 01.12.2019
Disallow: /*?dir=* Disallow: /*?order=* Disallow: /*?p=* Disallow: /*&dir=* Disallow: /*&order=* Disallow: /*&p=*
- person lboix; 20.02.2020
Зарегистрируйте свой сайт в Google WebMaster Tools. Там вы можете указать Google, как поступить с вашими параметрами.
Конфигурация сайта -> Параметры URL
У вас должны быть страницы, которые содержат эти параметры, указывающие, что они должны быть исключены из индексации через метатег robots. например