Подскажите такой вопрос, есть сайт с огромным количеством статей, работает он с 2021 года, и на нём есть страницы с дублированным пару нашел в процессе обработки 301 и 404 страниц, но хотелось бы найти все страницы с конетном - дублями, может есть какой парсер для этого?)
Вручную это невозможно сделать, там 40к страниц, единственное, не пробовал программы по типу кричащей сео лягушки или netpeak spider, очень сложный процесс, чтобы мне поставили его сисы((((
Screaming Frof SEO Spider, как уже отметили выше, наотличненько находит не только полные, но и частичные дубли. Можно задать порог сходства, по умолчанию - от 90%.
Google Search Console вполне ок для начала, но лучше для гарантии прикупить SEO Spider или Ahrefs, тогда будет меньше боязни найти что-то подозрительное через какое-то время