Это мой robots.txt :
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Sitemap: http://www.example.org/sitemap.xml.gz
Но Инструменты Google для веб-мастеров говорят мне, что роботы блокируют доступ к карте сайта:
Мы столкнулись с ошибкой при попытке доступа к вашему файлу Sitemap. Убедитесь, что ваш файл Sitemap соответствует нашим правилам и доступен в указанном вами месте, а затем повторите отправку: URL-адрес ограничен файлом robots.txt .
Я прочитал, что Инструменты Google для веб-мастеров кэшируют robots.txt , но файл был обновлен более 36 часов назад.
Обновить:
Нажатие на ТЕСТ карту сайта не приводит к тому, что Google получает новую карту сайта. Только SUBMIT Sitemap смог это сделать. (Кстати, я не вижу смысла в «тестовой карте сайта», пока вы не вставите туда свою текущую карту сайта - она не получает свежую копию карты сайта с адреса, который просит ввести перед тестом - но это вопрос на другой день.)
После отправки (вместо тестирования) новой карты сайта ситуация изменилась. Теперь я получаю «URL, заблокированный robots.txt . Карта сайта содержит URL, заблокированные robots.txt ». для 44 URL. В карте сайта ровно 44 URL. Это означает, что Google использует новую карту сайта, но она по-прежнему действует по старому правилу роботов (в котором все было запрещено). Ни один из 44 URL-адресов не находится в /wp-admin/
или /wp-includes/
(что в любом случае невозможно, так как robots.txt построен на муха тем же плагином, который создает карту сайта).
Обновление 2:
Ситуация ухудшается: на странице результатов поиска Google описание домашней страницы гласит: «Описание этого результата недоступно из-за файла robots.txt этого сайта - узнайте больше». Все остальные страницы имеют прекрасные описания. Там нет robots.txt или роботов меты блокировки индексации домашней страницы.
Я застрял.