Сегодня в вэбмастере Яндекса выскочило следующее:
Некоторые страницы сайта содержат одинаковый контент. Из-за их обхода информация о важных страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Посмотрите примеры. Чтобы в поиске участвовала только нужная из повторяющихся страниц, используйте директиву Clean-param в robots.txt или атрибут rel="canonical".
В примерах куча страниц типа вот таких
http://paranormal-news.ru/??lC4NiHpage18&page11 и http://paranormal-news.ru/??lAljjOpage818&page11
Что с этим делать? У меня там уже стоит каноникал в виде двух вариантов
<?if($PAGE_ID$=='day'||$PAGE_ID$=='month'||$PAGE_ID$=='year')?>
<link rel="canonical" href="$HOME_PAGE_LINK$" />
<meta name="robots" content="noindex, nofollow"/>
<?endif?>
<?if($PAGE_ID$='category')?>
<link rel="canonical" href="$HOME_PAGE_LINK$<?substr($REQUEST_URI$,1)?>" />
<?endif?>
Либо такой каноникал не подходит, либо надо что-то еще в роботс прописать?