Если ссылки на отдельные странички вашего интернет-сайта оформлены ошибочно, то поисковики в состоянии обнаруживать дублирующийся контент. Следствием этого может стать уменьшение эффекта от поисковой оптимизации ваших интернет-сайтов.
Поисковые системы являются программами, написанными человеком, у которых своя цель. Отыщут ли они дублирующееся содержимое на на вашем сайте, находится в зависимости от определённых факторов. Как избежать проблем, касающихся дубликатов содержимого сайтов? Ответ - старайтесь верно указать пауку поисковой системы что добавлять в индекс, а что не добавлять. Это делается с помощью директив в файле robots.Txt. Многие CMS без разрешения администратора сайта создают огромное количество схожих по содержанию страниц, но разных по адресу. В итоге в базе данных поисковика например тысяча страниц вебсайта, но оригинальными по содержанию в глазах ПС будут только 200, например. Чем чревата такая ситуация? Многие поисковые системы, Гугл например, официально заявляли о том, что сайты с большим количеством дублей в индексе не могут рассчитывать на высокие позиции. Порой довольно организовать грамотную внутреннюю перелинковку и интернет-сайт выходит на высокие позиции в поиске в отсутствии иных ухищрений со стороны вебмастера. Удачной иллюстрацией грамотной перелинковки и как следствие хорошего индексирования служит сайт nofollow.ru Приглядывайте за своими сайтами, проверяйте, на сколько правильно они проиндексированы поисковыми системами чтобы избежать таких проблем.