t-alexashka: Роботы которые даже при этом будут стучатся к указанным в Disallow путям - нелегалы - наверно меня не правильно поняли, я имел в виду не поисковых ботов.... а ботов - скрипты взломщики..... которые подбирают пароли, проверяют "дыры в плагинах"..... вот их я как то хочу присеч, чтобы они не создавали нагрузку на сайт.... иногда по 50 запросов за несколько минут совершают.... и так каждый день... я проверю айпишник бота... - вижу он в черном списке... типа хакер, ну и добавляю его в черный список... но похоже этим хакерам нет конца.
да, я в начале хотел делать поиск по строке.... но не знал как dapper'ом вернуть последнюю строку SELECT CAST(SCOPE_IDENTITY() as int )"; это наверно пришлось бы держать поле ИД и возвращать строку с максимальным ИД. Blog/{SeoUrl}-{id} - так устраивает, просто хочется же чтобы идеально было ). На СЕО этот циферный хвост не повлияет, фиг с ним, сделаю так.
спасибо.
да, стоимость очень приемлемая, еще и вдс. Если у меня большинство клиентов не в России, есть ли какое то решение...? Или расположение сервера не сильно отразиться на доставке контента?
на скорости доставки контента
С Sharp: вот блин, я на сайт поставил ленту с другого сайта, с помощью feed.mikle.com (скормил рсс) и банально на кучу кода этого виджета ругается...... спасибо, теперь знаю как смотреть весь заголовок )
С Sharp: а как увидеть полный запрос? Я в глобалаяксе ловлю все ошибки - protected void Application_Error(object sender, EventArgs e)
.....
case 500:
ToLog("ОШИБКА 500 сайт", httpException.Message + "ip: " + GetIPAddress() + GetBaseUrl() + httpException.Data + httpException.InnerException);
.....
в итоге в логе только:
Обнаружено потенциально опасное значение Request.Path, полученное от клиента (="...nts/05
ip: 109.104.185.34 сайт.com
System.Collections.ListDictionaryInternal