Подскажите кто как составил оптимизированный robot.txt

Подскажите кто как составил оптимизированный robot.txt

Что бы поисковики не индексировали лишние страницы сайта например такие как
вариации и другие странички фильтров и тд?

index.php?dispatch=products.ut2_select_variation&product_id=545825&prev_url=index.php%3Fdispatch%3Dcategories.view%26category_id%3D797

Мне помог @alex_vp работает.

1 лайк

Для вариаций можно придумать как canonical например использовать. Или заморочиться, и написать для каждой уникальное описание (title и description про умолчанию уж разные должны генерироваться). Для фильтров - есть модули seo для фильтров и у АБ, и ecomlabs (я пользуюсь последним), это не только решает вопрос урлов, но и позволяет продвигать в поиске страницы фильтров наравне с остальными обычными страницами и товарами.
Обо всем остальном что robots касается, здесь столько исписано, что проще поиском воспользоваться, чем повторяться, больше информации почерпнете.

3 лайка