Параметр ?page в строке ввода url в каталогах контент модулей

голоса: 0

Здравствуйте. Не уверен, что правильно выбрал подкатегорию "seo модуль", но тем не менее.  Как известно, несколько лет назад в каталогах контент модулей на ucoz изменились параметры при переходе с первой страницы на вторую, пятую. десятую и т.д.  Сейчас это выглядит так: https://www.uchportal.ru/load/?page3 или https://www.uchportal.ru/load/?page12 и так далее. Раньше выглядело как то с помощью цифр без слова "page"  Есть несколько вопросов.

  1. вопрос. В яндекс вебмастере этот параметр page появляется в самых неожиданных местах, например на каких то страницах в категориях, что приводит к многочисленным дублям.  Например: https://www.uchportal.ru/dir/23-1?page7 Тут параметра "?page7" не должно быть. Это не главная страница каталога сайтов, а страница с категорией. Должно быть просто https://www.uchportal.ru/dir/23-1   
  2. Как избавится от этого параметра в категориях?   Вот еще примеры:  https://www.uchportal.ru/load/120-4?page6 дубль страницы https://www.uchportal.ru/load/120-6  иногда даже такое бывает https://www.uchportal.ru/dir/2-4-0%20%20%20%D0%A1%D0%B0%D0%B9%D1%82?page3  Очень много таких дублей
Адрес сайта www.uchportal.ru
| Автор: | Категория: SEO
Изменение категории | | Автор: Yuri_Geruk

Ответов: 1

голоса: 0

Никак не избавиться. В вашем случае рекомендовал бы отредактировать файл роботс: https://www.uchportal.ru/robots.txt и удалить директиву:

Allow: /*?page

в результате все дубли будут запрещены к индексации директивой Disallow: /*? и большая часть ненужного мусора вылетит с поиска.

| Автор:

Но тогда вылетят и нормальные страницы каталога фалов типа https://www.uchportal.ru/load/?page3 или https://www.uchportal.ru/load/?page12

Евгений Никитенко,
Основная 1 страница категории или каталога ( они останутся в индексе ), все остальные, это одноообразные страницы с одинаковыми титлами, то есть дубли которые не представляют с себя особой уникальности и в результате с стороны поисковиков помечаются как  - Недостаточно качественный контент. Как поступить, решение принимать вам.
Yuri_Geruk,

Подумаю, попробую, спасибо.

Еще тогда вопрос по robots.txt 

Есть в стандартном robots.txt такая строка Disallow: /*-0-0- Запрещает индексацию страниц с различными фильтры (с дублями) и т.д.

Вот у меня делема. С одной стороны я убрал эту строку давно и настроил через условные операторы, чтобы для кадого из значений фильтра выводилтсь уникальные title и description

С другой стороны не уменьшает ли это вест страницы категории.
Например страница с фильтром, которая доступна для индексации:

https://www.uchportal.ru/load/25-1-2-0-0-8-0 и вот основная страница https://www.uchportal.ru/load/25

Как считаете, стоит ставить ограничение на страницы с фильтрами в robots.txt?

Евгений Никитенко,
Стоит вернуть так как кроме фильтров есть еще и другие дубли с этим урл и значениями, в итоге они будут попадать в индекс.
...