Перейти в Файловый менеджер, далее найти файл robots.txt в котором прописать директивы:
Disallow: /index/pravooblodateljam/0-4
Disallow: /index/kontakti/0-35
Disallow: /register/
Ваш готовый робот после должен выглядеть вот так:
User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/8
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /informer/
Disallow: /mchat
Disallow: /search
Disallow: /shop/order/
Disallow: /?ssid=
Disallow: /abnl/
Disallow: /index/pravooblodateljam/0-4
Disallow: /index/kontakti/0-35
Disallow: /register/
Sitemap: http://vmultiki.ru/sitemap.xml
Sitemap: http://vmultiki.ru/sitemap-forum.xml
Sitemap: http://vmultiki.ru/sitemap-shop.xml
Host: vmultiki.ru
В том случае если данные страницы проиндексированы, то через некоторое время они вылетят с индекса, конечно не в один миг и не за день(неделю может 2 или более все зависит от роботов и как быстро они среагируют).
С гугла удалить можно за один день, если гугл данные страницы проиндексировал, то вы можете перейти в вебмастре гугла и удалить данные страницы с поиска.
- Перейти по адресу - https://www.google.com/webmasters/tools
- Если у вас в вебмастере несколько сайтов выбираем соответствующий.
- Переходим во вкладку - Индекс Google - Удалить URL-адреса - Создать новый запрос на удаление(после вводим полный урл адресс страницы которую нужно удалить с поиска жмем кнопку - Продолжить и далее подтверждаем запрос) - http://i.imgur.com/zm0EQKK.png
- На следующий день страниц уже не будет в поиске.