Это письмо из вебмастера:
На вашем сайте https://artkey.su некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?from=mainpage дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.
Вот примеры страниц и дублирующих их страниц с незначащими GET-параметрами:
-
layout:
Заказать Egger на мебельном сайте Art-Design
Заказать Egger на мебельном сайте Art-Design -
layout:
Заказать Гардеробная В Хрущевке на мебельном сайте Art-Design
Заказать Гардеробная В Хрущевке на мебельном сайте Art-Design -
layout:
Заказать Кухня Полукругом на мебельном сайте Art-Design
Заказать Кухня Полукругом на мебельном сайте Art-Design -
layout:
Заказать Кухня В - Страница 2 на мебельном сайте Art-Design
Заказать Кухня В - Страница 2 на мебельном сайте Art-Design -
layout:
Заказать Шкаф Купе В Прихожую на мебельном сайте Art-Design
Заказать Шкаф Купе В Прихожую на мебельном сайте Art-Design
Если эти страницы действительно являются дублями, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице.
Это из вебмастера:
Примеры страниц, которые содержат одинаковый контент и различаются только GET-параметрами в URL
GET-параметр | Примеры страниц |
---|---|
layout | Заказать Egger на мебельном сайте Art-Design |
Подскажите как решить эту проблему, или нужно воспользоваться рекомендацией яндекса и воткнуть в robots строку:
Clean-param: keywords /advanced_search_result.php
Честно говоря я не понимаю как ее грамотно написать