var findtext = [];
Array.prototype.remove = function() {
var what, a = arguments, L = a.length, ax;
while (L && this.length) {
what = a[--L];
while ((ax = this.indexOf(what)) !== -1) {
this.splice(ax, 1);
}
}
return this;
};
Больше следи на форумами и будешь знать правду, а не влажные мечты.
За половину твоей писанины (до SRDB) тебе надо руки оторвать.
Ты ламер-недосеошнег, а тот пост написан профи. Человеком, работавшем во многих конторах включая автоматик и впмл.
А без правильного переноса можно с умным видом тетировать хоть полёты на луну - результат будет фонарный.
И да. Для выяснения проблем совершенно не нужно тягать сайт от хостера к хостеру.
задача обычно стоит простая - исключить некоторые страницы из индекса, robots для этого универсальнее и годится для всех поисковиков.
а clean_param он из большего для того, чтобы какие-то параметры отбросить, а какие-то оставить.
то есть если у вас site.ru/?promo=EXAMPLE¶m2=id¶m3=new¶m4=name
и нужно (по каким-то причинам) чтобы осталось только проиндексированным site.ru/?param3=new
тогда да.
но обычно достаточно выкинуть мусор и оставить правильные страницы.
в этом случае robots + canonical проще и надежнее.
но если вдруг robots не срабатывает или есть желание, ну попробуйте и этот вариант - причем можно одновременно и robots и clean param.
в данном случае clean_param: promo исключит ваш параметр и оставит пустую страницу https://disk.yandex.com/i/QINXZW4jQf8PVQ