Проверка наличия Robots.txt на сайте
Что делает сервис проверки Robots.txt?
Сервис проверки файла Robots.txt предназначен для проверки ошибок в данном файле, часто возникающих из-за опечаток, некорректного синтаксиса и "логики", а также инструмент даст полезные советы по оптимизации Robots.txt.
Достаточно вставить список URL ваших сайтов в специальную форму, нажать кнопку "Анализировать", и наш инструмент автоматически проверит наличие и корректность Robots.txt, а также отобразит все данные в едином отчете.
Для чего предназначен файл Robots.txt?
Robots.txt это текстовый файл, располагающийся в корне вашего сайта (some-site.com/robots.txt) в котором содержатся указания для поисковых роботов, могут ли они сканировать различные страницы вашего веб-сайта. Инструкции по обходу страниц сайта определяются путем "запрещения" либо "разрешения" обхода страниц вашего сайта различным поисковым ботам.
|