Следите за новостями любимого конструктора сайтов uCoz в социальных сетях!
это у вас страницы пагинации каталога файлов на скрине изображены. удалите из файла robots.txt строчку
Allow: /*?page
и проблема решится
Мне вот Яндекс Поддержка предложила сделать
Попробуйте изменить код этих страниц так, чтобы оставить для робота только уникальный, не повторяющийся контент. Сделать это можно, добавив на страницы больше уникального описания, либо при помощи тега <noindex>: поместите в него те части страницы, которые одинаковы для всех похожих страниц сайта (например, меню, заголовки и т.п.).
Уникальный текст сразу отпадает, а вот <noindex>. Я прочитал, что он не индексирует текст, а сам материал будет проиндексирован? Или это тоже не вариант?
Вот ещё
В качестве альтернативного решения Вы можете явно указать роботу, по какому адресу страницы должны индексироваться и участвовать в поиске, например, прописав в коде дублирующих страниц атрибут rel="canonical" тега , содержащий их канонический адрес ( https://yandex.ru/support/webmaster/controlling-robot/html.html#canonical ). По мере обхода сайта робот отследит эти изменения, и страницы станут участвовать в поиске по необходимому адресу. Подробнее об обработке перенаправлений Вы можете узнать в нашей Помощи: https://yandex.ru/support/webmaster/robot-workings/managing-redirects.html .
в том то и дело, что таких файлов 1000+ название у них одинаковое, но в игре они разные, поэтому название и текст никак не придумать разные