31
Январь
2009
Используйте наиболее безопасные методы для конфиденциального контента. Вы не можете полностью полагаться лишь на robots.txt, при защите конфиденциального контента. Дело в том, что поисковые системы могут показывать ссылки на заблокированные страницы (лишь урл, без сниппета и заголовка). Это может произойти, если ссылки на заблокированные страницы окажутся в интернете, например в открытых логах сервера.
Кроме того, некоторые поисковые системы не поддерживают robots.txt и могут свободно сканировать заблокированные в данном файле страницы. Кроме того, некоторые любопытные пользователи могут посмотреть содержимое robots.txt и попытаться получить доступ к страницам, информацию на которых вы считаете конфиденциальной. Наиболее безопасным методом закрытия такого контента является использование паролей через .htaccess
Избегайте:
Seo.by выходит с дизайном в стадии альфа на открытое тестирование. Просьба не пугаться, а наоборот, если есть дельные предложения, то оставлять их в данной ветке.
Последние комментарии