В яндекс вебмастер появился новый раздел Заголовки и описания и оказалось, что робот проиндексировал очень много урл фильтров, которые имеют различный набор параметров и, соответственно, различные урл, но открывается по ним одна и та же выборка с одинаковыми заголовками и описаниями, например:
Туники - размеры: Полуобхват 79 см — 7 таких заголовков:
По всем этим урл открывается одна и та же выборка и непонятно, как лучше и правильнее устранить эти дубли- варианты:
Запретить индексацию 6 из 7 урл в robots.txt и отправить их на удаление из поиска, но непонятно какой из этих урл является основным и его следует оставить в поиске. Также возможно, что в дальнейшем могут появляться новые дубли с новыми наборами пареметров
Попробовать объеденить все 7 урл фильтров назначив им один и тот же seoфильтр - туники с полуобхватом 79 см, с одинаковым урл для всех
Также в поиске появились дубли заглавной страницы с какими-то другими доменами и параметрами после знака вопроса, причем яндекс отклоняет их удаление из поиска:
Кроме первого фильтра у остальных в параметрах присутствует знак +
Если задать в robots.txt правило Disallow: /*+* , то не запретим ли мы этим и какие-то нужные урл с этим знаком?
Но при проверке в robots.txt выдает, что /tuniki.html?cat=79&cPath=41_52_53_79&layout=list уже закрыт от индексации конструкцией *html?*, хотя я такой конструкции найти не могу в robots.txt- что это может быть?
По поводу фильтров думаю делать на один из дублей seo фильтр, а другие дубли редеректить на него по 301- как такое решение?
Владельцы сайтов можете сообщить много ли у вас дублей в разделе Яндекс Вебмастера Заголовки и описания и как вы решаете проблему с ними? Заранее спасибо.
Добрый день, думаю нужно написать в тп Яндекса вопрос, интересно что они скажут.
Лично я думаю что это не является проблемой потому что на всех страницах .html
есть тег canonical который и указывает поисковым системам какую страницу нужно индексировать.
Страницы фильтров я бы вообще запретил, а так нужно смотреть какой трафик идет на них.
По низкочастотным запросам есть посещения на фильтры, но не получается склеить дубли 301-м редиректом, да и много их- тысячи, вручную год просклеиваешь
Пробовал прописать 301 редирект вот таким образом, Redirect 301 /products_filter.php?f43[0]=&cat=72&cPath=41_52_72 https://best-shop.su/brjuki-zhenskie.html но сайт перестает открываться
А если запрещать через Disallow: , то, как пишут, только яндекс удалит страницы, в гугле же все равно останутся