Никак не избавиться. В вашем случае рекомендовал бы отредактировать файл роботс: https://www.uchportal.ru/robots.txt и удалить директиву:
Allow: /*?page
в результате все дубли будут запрещены к индексации директивой Disallow: /*? и большая часть ненужного мусора вылетит с поиска.