Защита контента

Завел себе маленький бложик, пишешь статьи, стараешься писать по делу и интересно а тут бац — какой то более трастовый ресурс их себе перепечатывает. И скорость индексации у него не в пример больше и рейтинги в поисковиках. Обидно да? Особенно сейчас, когда весь интернет наводнен говносайтами тематическими блогами, для которых тексты пишут малолетние дебилы не очень компетентные копирайтеры.

Эта мысль сразу меня беспокоила, когда только начинал работать надо блогом. Есть множество рекомендаций вставлять скрипты не дающие скопировать контент, вставляющие в него всякие подписи, ссылки. Но все это в основном мешает читателям и неэффективно чуть больше, чем почти полностью. Мне, к примеру, надо будет — я любой контент смогу забрать.

Размышляя над тем, как это предотвратить, придумал простой способ. Публиковать надо только статьи уже проиндексированные поисковиками. А дальше пусть копируют, кто хочет))).

Как это организовать, чтобы записи в блоге индексировались до публикации? Очень просто. В wordpress есть два типа контента — статьи и записи. Я использую для публикации материалов только записи, но предварительно на каждую запись создаю статью. С помощью плагина Custom Permalinks я могу сделать адрес статьи такой же, какой будет у будущей записи. Далее урл статьи, которую еще никто не видел, я добавляю в важные страницы вебмастера Яндекса и индекс Google. Гугл индексирует практически сразу и я только жду подтверждения Яндекса, что статья успешно проиндексирована. Это занимает 3-4 дня, после чего публикую запись с тем же урлом и содержанием, а статью удаляю.

В итоге, когда в этом блоге появляется новая запись — она уже есть в индексе Яндекса и Google, после чего вопрос копирования меня уже абсолютно не волнует. Так, конечно, я заморачиваюсь только со статьями, для которых на подготовку материала и написание уходит много времени. Какой то экспромт публикую сразу.

Дополнительно, сделал отдельный автоматический sitemap для статей, которого нет в robots.txt и который добавлен в панели вебмастера важных поисковиков. Пока мне еще не лениво вручную вставлять ссылки для индексации, но со временем, возможно, этого дополнительного сайтмапа будет достаточно, чтобы роботы сами находили и индексировали страницы, а я буду только смотреть, что уже проиндексировано и выкладывать в открытый доступ.

comments powered by HyperComments