ReadTheDocs автоматически создает robots.txt
и sitemap.xml
для проектов. Каждый раз, когда я развертываю новую второстепенную версию своего проекта (например, 4.1.10
), я скрываю предыдущие второстепенные версии (например, 4.1.9
). ReadTheDocs добавляет записи для всех версий в sitemap.xml
, но скрытые версии также добавляются в robots.txt
. В результате отправленные карты сайта в Google Search Console на данный момент приводят к тому, что отправленный URL-адрес заблокирован ошибками robots.txt, поскольку предыдущая запись карты сайта теперь заблокирована вновь сгенерированным файлом robots.txt
.
ReadTheDocs генерирует URL-адрес карты сайта для каждой версии, поэтому для 4.1.9
у нас есть такая запись, например:
<url>
<loc>https://pyngrok.readthedocs.io/en/4.1.9/</loc>
<lastmod>2020-08-12T18:57:47.140663+00:00</lastmod>
<changefreq>monthly</changefreq>
<priority>0.7</priority>
</url>
И когда 4.1.10
выпущен, а предыдущая дополнительная версия скрыта, вновь сгенерированная robots.txt
получает:
Disallow: /en/4.1.9/ # Hidden version
Я считаю, что это Disallow
является причиной того, что поисковый робот Google выдает ошибку.
На самом деле, все, что я хочу в sitemap.xml
, это latest
, develop
и stable
, меня не очень заботит сканирование каждой версии. Но все, что я могу настроить, как я понимаю это из документации ReadTheDocs, является статическим robots.txt
.
Я хочу опубликовать собственное статическое sitemap.xml
вместо использования автоматически сгенерированного. Любой способ сделать это?