Очередная сага о robots.txt

Очередная сага о robots.txt

А вот еще одна очередная сага о robots.txt! Дело в том, что сейчас нахожу очень много постов, обсуждений и тем на различных форумах о поисковой оптимизации. И действительно, ведь как правило многие новички даже и не знают о тех подводных камнях, которые можно встретить в этой теме.

Сейчас кратко попробую выделить их.

Содержание статьи:

Дублированный контент

Первое - это дублированный контент, ведь давно не секрет, что поисковики негативно относятся к такому виду информации, т.е. другим словом даже пессимизируют ваш сайт в выдаче, если на нем обнаружен дубликат. А где же он на блоге? Как правило это всеми любимые и постоянно висящие на главной рубрики Архивов и Тегов. Что же? Переходим по ним и видим кучу дубликата, залазим в индекс Яши, и тоже видим проиндексированные страницы. Уверен это во многом влияет на позицию вашего сайта, блога в поисковой выдаче.

Google PR

Второе, всеми пресловутый и восхваляемый гугл пейджранк. Система такая, что именно по этим ссылкам и уходит пейджранк с главной. То есть вы оптимизируете, получаете жирные ссылки с других сайтов, ждете хорошего ПР, а получается что он уходит на внутренние страницы. Это тоже весьма плохо.Поэтому, займитесь своим robots.txt немедленно, запретите индексировать страницы с тегами и рубриками. Второе, в прекрасном плагине Simple Tags, который идет в поставке, можно прописать опцию rel=nofollow, которая будет к ним прикреплена. Тем самым перетекать ПР не будет. Вот так вот!