Всегда полагал, что для User-agent: Yandex
достаточно прописать хост, а все остальное запихнуть в
User-agent: *
Хотя долгое время копировал все правила для каждого User-agent "на всякий случай"
Теперь возвращаюсь к этому, и вот причина.
Недавно один нехороший ресурс подкинул мне подоянку, из-за которой мой сайт просел в выдаче по некоторым запросам.
Собственно рано еще говорить про его позиции в выдаче, т к я его неспешно продвигаю в основном за счет внутренней оптимизации, а бюджет на внешнюю стремится к нулю.
Тем не менее по запросу "продвижение сайтов" был на 26м в НН упал на 65е.
Вот эта подлянка: http://capweb.ru/?utm_campaign=factus&utm_content=search&utm_medium=organic&utm_source=factus.ru
Проиндексировалась она так, потому что с сайта ссылка стоит именно с такими параметрами, и я уже начинаю думать, не есть ли это тот самый легкий способ подпортить жизнь конкурентам - кому надо - забирайте, дарю, сам не увлекаюсь этим, предпочитая честную игру.
Работает только если на сайте не прописаны rel="canonical" (я уже прописал).
Спросил на всякий случай у Яндекса, правильно ли я сделал, что прописал в robots.txt
Disallow: /*?utm_campaign=
Disallow: /*?utm_content=
Disallow: /*?utm_medium=
Disallow: /*?utm_source=
Clean-param: sid&start&utm_campaign&utm_content&utm_medium&utm_source
ответ был такой