Что такое дублирование контента и к каким последствиям может привести?

Абсолютно все поисковые системы негативно относятся к наличию дублей в контенте, причем как в определенной части текста, так и в статьях целиком. Многие web-мастера непосредственно сталкиваются с данной проблемой. В данном видеоролике Вы узнаете, как избежать подобной неприятной ситуации.


Смотрите полный видеокурс на iTunes

Дублирование контента может привести к возникновению двух проблем. Во-первых, позиции Вашего электронного ресурса в поисковой выдаче могут существенно снизиться, а во-вторых, некоторые страницы сайта могут и вовсе вылететь из индекса, вследствие чего ни один пользователь не сможет с ними ознакомиться. Далее рассмотрим, в каких случаях может происходить дублирование контента и как предотвратить такую проблему.

Источниками дублированного контента могут выступать RSS-ленты, страницы для печати и служебные страницы, а также дубли контента, которые создаются непосредственно системой сайтоуправления. Решение возникшей проблемы будет следующим – необходимо запретить к индексации определенного рода страницы на Вашем электронном ресурсе.

В обязательном порядке проверяйте Ваш контент на наличие дублей. Для этого можно воспользоваться бесплатными программами (eTXT Антиплагиат, Advego Plagiatus и double content finder), online-сервисами (copyscape.ru, findcopy.ru, antiplagiat.ru, а аткже istio.com) и проверкой в поисковых системах. Последний способ рассмотрим на примере Яндекса. Необходимо ввести в строчку поиска фразу «я ищу: имя требуемой Вам страницы», после чего воспользоваться расширенным поиском и в предложенную строку «на сайте» ввести название электронного ресурса. По завершению процедуры Яндекс покажет вам все страницы, имеющие дубли.

Естественно, после выявления дублированного контента необходимо провести зачистку сайта от него. Для этого существует 2 способа действий: удаление дублей и закрытие текста от индексации. Второй случай используем в тех случаях, когда невозможно осуществить удаление. Инструменты закрытия от индексации:

1) «robots» — метатег, находящийся непосредственно в html-коде страницы ресурса. Ему свойственны некоторые атрибуты: follow, nofollow – учитывать (не учитывать) ссылки; index, noindex – индексировать (не индексировать); all, none – индексировать все (не индексировать ничего);

2) «noindex» — специальный тег поисковой системы Яндекс, при помощи которого Вы имеете возможность закрыть от индексации совершенно любую часть размещенного текста, вследствие чего робот просто-напросто не будет ее учитывать.

Документ «Robots.txt»

Из нашего видеокурса Вы можете подробно узнать о данном файле. Его специфика заключается в запрете к индексации определенных страниц либо разделов Вашего электронного ресурса. Кроме того, «Robots.txt» может указывать на главное зеркало Вашего сайта, проводить рекомендации роботам-поисковикам, соблюдать периодичность между скачиванием документов с какого-либо сервера и прочее.

Обязательным условием размещения контента на Вашем электронном ресурсе является его уникальность, однако даже собственноручное его написание либо заказ у профессионалов не сможет полностью избавить Вас от проблемы «дублирование контента». Постарайтесь провести грамотную оптимизацию сайта и как можно чаще обновлять информацию на нем, используйте карты поисковых систем и всегда проверяйте Ваши страницы на наличие дублей. Как Вы заметили, такого рода проблемы избежать можно, причем сделать это довольно-таки просто. Главное – вовремя взяться за дело.

В этот день я написал...



Понравился блог?
Тогда подпишись на RSS


Комментирование закрыто.



Статистика


Rambler's Top100