Я создал веб-сайт с помощью Wordpress, и в первый день он был полон фиктивного контента, пока я не загрузил свой. Страницы, проиндексированные Google, такие как:
www.url.com/?cat=1
Теперь этих страниц не существует, и чтобы сделать запрос на удаление, Google просит меня заблокировать их в robots.txt.
Должен ли я использовать:
User-Agent: *
Disallow: /?cat=
or
User-Agent: *
Disallow: /?cat=*
Мой файл robots.txt будет выглядеть примерно так:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /author
Disallow: /?cat=
Sitemap: http://url.com/sitemap.xml.gz
Это выглядит нормально или может вызвать проблемы с поисковыми системами? Должен ли я использовать Allow: / вместе со всеми Disallow:?
/?cat=
. Но вы можете разрешить определенную категорию, напримерAllow: /?cat=something
. - person Jim Mischel   schedule 21.01.2011