sergstesh 0 11/18/16 15:51 Сгенерировал при помощи сайта cy-pr.com robots.txt для своего форума, почему он получился такой маленький? Что не правильно делаю подскажите пожалуйста? User-agent: *Crawl-delay: 1Host: investmani.ruSitemap: http://investmani.ru/sitemap.xml Поделиться сообщением Ссылка на сообщение
siv1987 2628 11/18/16 17:10 Сгенерировал при помощи сайта cy-pr.comСервисы могут генерировать какие-то запреты в роботс только на основе используемой кмс. Либо сервис не смог определить какой движок используется (или отсутствует информация о нем), либо он просто не генерирует запреты. Для 3.x robots поставляется вместе с дистрибутивом форума. Поделиться сообщением Ссылка на сообщение
MarinaGrom 0 07/08/17 13:07 от сайта зависит это, ведь структура не у всех одинаковая, а в роботс вы закрываете ненужные для индексации файлы, кому-то нужно закрыть одни а кому-то другие, конечно есть некоторые общие, но этого не достаточно нужно смотреть индивидуально на сайт Поделиться сообщением Ссылка на сообщение
YourBro 0 07/30/19 12:34 О, может и мой роботс рассмотрите?) User-agent: *Allow: /Disallow: /admin/ Sitemap: https://suntown-ukraine.com/sitemap.xml Я посмотрел на ваших роботов, и если честно не совсем понимаю зачем так много всего указывать?как я понимаю поисковые роботы индексируют всё что есть на сервере в сайте, если у меня в связи с тем что я не кодер, нету доступа к серверной части сайта, то получается я и не смогу указать ничего более подробно? Или есть какие-то стандартные правила составления всех robots.txt? Поделиться сообщением Ссылка на сообщение