Существует (как минимум) две распространенные причины, по которым странные и искаженные URL-адреса могут отображаться как ошибки сканирования в Инструментах для веб-мастеров.
Первая возможность состоит в том, что кто-то скопировал ваши страницы (или некоторые другие страницы, которые ссылаются на ваши) и исказил ссылки в процессе. Это происходит чаще, чем вы думаете; см., например, шестой вопрос в этой записи блога Google для веб-мастеров .
Другая возможность состоит в том, что сам робот Googlebot пытается следовать тому, что он считает ссылками JavaScript, и создает беспорядок . Обычно эти два случая можно отличить друг от друга, посетив ссылающуюся страницу (которая должна существовать и быть доступной, если Google удалось сканировать ее с самого начала) и найти имя целевой страницы в ее источнике.
В любом случае, вы можете сделать две вещи: либо просто игнорировать ссылки, либо придумать правила переписывания, чтобы попытаться сопоставить неработающие URL-адреса с рабочими. Если вы видите очевидную закономерность в URL-адресах и знакомы с регулярными выражениями, я бы порекомендовал второй подход - он очистит ваш список ошибок сканирования и, возможно, даже даст вам небольшой и довольно глупый, но реальный, PageRank импульс ,
Третий вариант, если вы обнаружите, что кто-то копирует ваш контент без разрешения, это попытаться исключить его из списка . Вы даже можете отправить жалобу (и / или официальный запрос на удаление) их хостинг-провайдеру, если вы считаете это оправданным. Конечно, при условии , что они являются , по- видимому ссылки на ваш сайт, вы можете не обязательно найти , что стоит усилий.