Нужен кто-то знающий для исправления GET-параметров в дублях

Вот то рекомендует вэбмастер:
Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Посмотрите примеры. Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.

Кто возьмется?

Такая же проблема, у меня около 10к страниц таких. Именно где есть вариации.

1 лайк

О вот что нашел, поможет ли? )))
Только щас зашел и увидел у себя прописано Clean-param: review_rate&selected_section и проблема ушла.

, это хорошо!
но я такой чайник, что даже файл robots найти не могу через поиск на хостинге

Можно проще, в админке он. Веб сайт - Seo вкладка Robots.txt просто пропишите

Clean-param: review_rate&selected_section если были ранее записи просто добавьте без пробела к уже существующим правилам через &review_rate&selected_section

Есть более надежный способ.
SEO - robots.txt (это если вы robots через админку прописали, иначе редактируете файл что в корне сайта)
добавляете

Disallow: *?*
1 лайк

А как победить вот это? Это в Google Search Console

да, нашла, вроде как сделала

1 лайк

а что за ошибка? конкретику какую-нибудь дает?

Пишет вот так

Ссылка ведет на документацию в гугл, а там ничерта не понятно!

Страница является копией. Канонический вариант не выбран пользователем.

Эта страница дублирует другую, но не указана в качестве канонической. Робот Google считает канонической другую версию этой страницы, поэтому дубликат не появляется в результатах поиска. Узнать, какой ресурс робот Google считает каноническим, можно при помощи инструмента проверки URL.

Это не считается ошибкой, поскольку Google не показывает копии страниц. Если канонической выбрана неверная страница, отметьте правильную страницу как каноническую. Чтобы страница не считалась копией той, которая занесена в индекс Google как каноническая, их контент должен существенно различаться.

И там вообще куча всего )))

Добрый день!
а мне сможете помочь?
у меня в роботсе прописано так:
User-agent: *
Disallow: /cgi-bin/
Disallow: /profiles-add/
Disallow: page
Disallow: index.php
Crawl-delay: 20
Clean-param: etext
Clean-param: combination
Clean-param: match
Clean-param: subcats
Clean-param: pcode_from_q
Clean-param: pshort
Clean-param: pfull
Clean-param: pname
Clean-param: pkeywords
Clean-param: search_performed
Clean-param: q
Clean-param: dispatch
Clean-param: features_hash
Clean-param: product_id
Clean-param: post_redirect_url
Clean-param: promotion_id
Clean-param: page
Clean-param: sort
Clean-param: sort_by
Clean-param: sort_order
Clean-param: layout
Clean-param: return_url
Clean-param: block
Clean-param: position
Clean-param: s_layout
Clean-param: redirect_url
Clean-param: utm_sourse
Clean-param: frommarket
Clean-param: items_per_page
Clean-param: with_images
Clean-param: selected_section
Clean-param: clid
Clean-param: prev_url
Clean-param: n_items
Clean-param: show_not_found_notification
Clean-param: utm_medium
Clean-param: utm_campaign
Clean-param: utm_content
Clean-param: utm_term
Clean-param: block
Clean-param: source
Clean-param: region
Clean-param: region_name
Clean-param: placement
Clean-param: roistat
Clean-param: rf_parent_post_id
Clean-param: utm
Clean-param: security_hash
Clean-param: object_type
Clean-param: object_id
Clean-param: obj_prefix
Clean-param: route
Clean-param: tag_id
Clean-param: limit
Clean-param: path
Clean-param: variation_id
Clean-param: sl
Clean-param: product_review_id
Clean-param: variant_id
Clean-param: manufacturer_id
Clean-param: category_id
Clean-param: post_id
Clean-param: order
Clean-param: abt_in_popup
Clean-param: cookies_accepted
Clean-param: page_id
Clean-param: template
Clean-param: frmgrably

Host: https://4range.ru/
Sitemap: https://4range.ru/sitemap.xml

но вебмастер всё равно ругается…
что нужно добавить или убрать?

Clean-param: etext&combination&match итд ...
1 лайк

Дико извиняюсь, я чайник в этом. может на платной основе сможете сказать что конкретно прописать?

на что ругается вебмастер?

Некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Посмотрите примеры. Если в поиске есть дубли из-за GET-параметров, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.

Посмотреть примеры страниц



Disallow: *?*

Мне просто в конце файла роботц прописать Disallow: ?
верно?

с * или без?

Да, эта строчка рекомендует не обходить страницы с гет параметрами
в этом случае clean-param собственно будет излишним

Тогда так делаю?
User-agent: *
Disallow: /cgi-bin/
Disallow: /profiles-add/
Disallow: page
Disallow: index.php
Crawl-delay: 20
Disallow: ?

Host: https://4range.ru/
Sitemap: https://4range.ru/sitemap.xml