гуглу не нравится что повторяются мета описания

голоса: +3

как исправить или поменять мето описания, повторяющиеся заголовки (теги title), вот пример "

 

| Автор: | Категория: Google Вебмастер
Редактирование | | Автор: Роман

Ответов: 1

голоса: +2
 
Лучший ответ

Рекомендовал бы ознакомить с модулем Seo более плотно, далее использовать каноникал:

 <?$SEO_CANONICAL$?>

который установить между <head></head> так же перед этим в премиум настройках незабудьте поставить галочку напротив пункта - Использовать атрибут rel="canonical" для материалов [?]

После все дубли которые вы навели в примере, более не появятся в вебмастере гугла и яндекса так как каноникал этого не допустит и все поклеит с правильным урлом.

| Автор:

Вы не могли бы пояснить, пожалуйста, как решить ту же пробему, но без PRO версии SEO-модуля, ведь из-за накопившихся сотен дублей страниц, что отражено в Вебместере Гугла, у меня траффик с гугла упал в 2 раза, как раз с тех пор, как появилось то, чего не было ранее, дубли из за страниц с "?" типа  /photo/9-0-604-3?1403993180 или  /3-0-1492?_escaped_fragment_= Спасибо!

Ознакомьтесь с материалом - http://forum.ucoz.ru/forum/21-13447-1 где предоставлен обновленный вариант роботсе, так же там имеется директива которая будет блокировать дубли с _escaped_fragment_= итд.
Благодарю за информацию!

а как быть с этим  www.ixtira.tv/photo/risunok_chaggington/4-0-566 ,

поменял url, яндекс пишет что страница Формат документа не поддерживается, или с этой страницей 

/photo/uroki_risovanija/106-2-0-0-1?photo=658

Для блокирования подобных дублей в роботсе так же имеется директива:

Disallow: /*?

и соответственно урл дубль - /photo/uroki_risovanija/106-2-0-0-1?photo=658 будет заблокирован

Disallow: /*?

это обязательно закрывать? 

у меня более 200 страниц которые поменяли урл

/photo/raskraska_koshka_4_risu_nok/-0-51
/photo/raskraska_koshka_s_kotjatami_3_risu_nok/-0-50
/photo/raskraska_kotenok_2_risu_nok/66-0-49    
/photo/raskraska_kotenok_6_risu_nok/-0-53    
/photo/raskraska_kotjata_21_risu_nok/66-0-67

как быть сними? их все убирать от индексации? или включить 301 редикт? или яндекс проиндексирует по новому урл?
Закрывать обязательно, так как много дублей запрещается именно данной директивой и о чем вы выше упомянули и в стандартном обновленном роботсе эта директива так же есть.

> /photo/raskraska_koshka_4_risu_nok/-0-51
/photo/raskraska_koshka_s_kotjatami_3_risu_nok/-0-50
/photo/raskraska_kotenok_2_risu_nok/66-0-49    
/photo/raskraska_kotenok_6_risu_nok/-0-53    
/photo/raskraska_kotjata_21_risu_nok/66-0-67

Я для данных целей использую 2 таких директивы:

Disallow: *-0$
Disallow: */0$
Disallow: *-0$
Disallow: */0$

а что имменно они означают? и ненавредятли сайту?

> а то что я урл поменял как их старые урл закрывать? вручную все 200 по отдельности?
>> ничего дополнительно делать не нужно, роботы через определенный промежуток времени просто склеят данные урлы с основным.

как пример есть у вас урл дубль:

/photo/raskraska_kotenok_6_risu_nok/-0-53

директива Disallow: *-0$ указывает роботу смотреть все урлы сайта и если найдутся совпадения, то есть site.ru/категория/-0 дале $ указывает все что после ноля уже не смотреть и блокировать такой урл полностью так как это дубль(то есть урл мусор)

А дируктиву Disallow: */0$ вы можете и не использовать как считаете нужным, но она так же блокирует дубли на сайте вида /news/0 /publ/0 и так для всех модулей и это неправильный урл который не должен быть в индексе.

я видел что многие используют вот так 

Allow: /*?page 
Disallow: /*? 

как вы думаете это правильно, или же все таки Allow: /*?page , не использовать?

Allow: /*?page разрешает роботу ходить по переключателях страниц при запрете Disallow: /*? и индексировать все другие материалы и ето правильно.

Так как сама директива Disallow: /*? без аллов выше блокирует и переключатели страниц и роботу проблемно будет ходить без закрытия доступа и индексирвоать все материалы, а так мы ему это разрешаем.

то есть мне включить Allow: /*?page в robots, я вас правильно понял?

вы правильно поняли
...