Здравствуйте,
Вчера вебмастер прислал критическую ошибку связанную с “Найдены страницы-дубли с GET-параметрами”.
Примерами страниц привел:
Подскажите, что нужно указать в директиве Clean-param в robots.txt ?
Здравствуйте,
Вчера вебмастер прислал критическую ошибку связанную с “Найдены страницы-дубли с GET-параметрами”.
Примерами страниц привел:
Подскажите, что нужно указать в директиве Clean-param в robots.txt ?
Аналогичная проблемка есть, идей пока по решению нет. Не уверен что хорошая идея закрывать все страницы с параметрами.
User-agent: Yandex
Disallow: *?currency*
.
Clean-param: promocode&selected_section&show_not_found_notification&action&utm_source&utm_medium&utm_campaign&utm_content&admitad_uid&gclid&yclid&fbclid&_openstat&cpamit_uid&k50id&gsaid&_gs_ref&_gs_cttl&sub_id&cpamit&code&dispatch&id&block_id&apclick&apsource&categories&category_hash&category_id&cbclic
k&click_id&cc&desktop&destination&feedback_sha1&gr&is_pagination&kc&mobile&p&page&prx&q&ref&sort_by&sort_order&source&utm_term&utn_campaign&variant_id&xp_&sa&subid&aff_sub&xid¤cy&adv *
.
Я правильно понимаю, что через & перечислены все параметры, которые присутствуют в движке ?
Или которые добавляют рекламные площадки. Продублировано через дизаллоу потому что клинпарам может отечественный движок игнорировать
Спасибо!