Нужно в файле robots.txt закрыть для поисковиков яндекс и гугл неосновной домен.
Например, покупая домен www.сайт.ru вы также получаете сайт.ru... При индексации иногда происходит так, что оба домена проиндексированны и являются копиями друг друга.
Как в файле robots закрыть индекисрование сайт.ru и предоставить ПС только с www
За ценную информацию готова выложить 0.5$
Раздел: Программирование, последний комментарий: 26.07.2011 07:44 Вопрос закрыт пользователем mouse01 по причине пришлось читать самой
Ха... Помнится где то пару месяцев назад я хотел сделать тоже самое. И ты говорила мол не парься, не майся ерундой оставь как есть т.к. это не влияет на выдачу! Я попробовал сделать то что советовали люди в результате яндекс выбросил сайт из поиска. После чего мне пришлось обращаться к Платону.
Добавлено спустя 08 минут 33 секунды
Ага яндекс тоже говорит что нужно делать именно так и в результате исключает все страницы вообще
Файл robots.txt состоит из записей. Каждая запись содержит два поля: строка пользовательского агента (User-agent) и строка запрета (Disallow). Так, запрет для индексации роботом Google содержимого папки cgi–bin будет выглядеть следующим образом:
User-agent: googlebot Disallow: /cgi-bin/ Использование символа "*" в поле пользовательского агента будет значить, что запрет распостраняется на всех роботов:
User-agent: * Disallow: /cgi-bin/В данном случае индексация папки cgi-bin запрещена для всех роботов.
Используя символ "*" можно запретить также индексацию определенного типа файлов по расширениям. Так следующая запись запрещает всем роботам индексацию файлов с расширениями .doc и .pdf:
впервые слышу, что клей - это хорошо.
у меня также склеялись домены в яндексе, причем он принял домен с www за главное зеркало... прописал в роботс строку
Host: mysite.ru
уже больше недели изменений нет