Как-то набрал я в Гугле поисковый запрос и получил страницу с результатами выдачи. Кликнул я, естественно, по первым двум и попал на сайты сообществ, в которых не был зарегистрирован. Поэтому, в место искомого контента, получил примерно следующие сообщения:
Форум находится в режиме «Только для зарегистрированных»
Для просмотра тем форума необходима регистрация и согласие с правилами.
Нет доступа в сообщество
Вы не являетесь членом сообщества «Информационный дизайн сайтов».
Просмотр этого сообщества вам не доступен.
Но в Гугле под каждым найденным сайтом на страничке поиска есть замечательная ссылочка под названием «Сохраненная копия». В Яндексе она названа еще более лаконично «копия». Кликаем по ссылке «Сохраненная копия» и — вуаля. Весь контент закешированной страницы и ключевыми словами из поисковой фразы, отмеченные желтым маркером, как на ладони! Спашивается: зачем регистрироваться только для того, чтобы прочесть нужное? Достаточно воспользоваться поиском Гугла или Яндекса — это уже коме что нравится.
Помни как-то несколько лет назад таким же макаром мы с напарником нагуглили студийные фотографии какого-то буржуйского сайта с великолепными изображениями рулетов, кексов и другой кондитерской продукции. Они нам нужны были для сайта клиента. Обычным способом, зайдя на сайт, этьи фото были не доступны.
Мы, как честные граждане Украины, написали письмо владельцам этих фотографий с вопросом об использовании их на сайте коммерческой компании. И были почти уверены, что нам как бедным родственникам с Украины, дадут письменное разрешение. Но, к сожалению, нам было отказано. Покупать их было просто нереально. Пришлось для сайта искать другие картинки :).
Вот так нас выручает кэш поисковых систем :). Поисковые паучки проникают даже на страницы, доступные простым смертным только после авторизации.
Как от этого защитить свой сайт я не знаю, но с примером о картинках — веб-мастеру следовало запрещать доступ к содержимому сайта, непредназначенному для посторонних глаз. Тогда картинки не попали бы в индекс. Это легко сделать с помощью специальных инструкций для поисковиков правильно составив robots.txt.