try
{
var awaiter = Go1Aync(cts.Token).GetAwaiter();
awaiter.OnCompleted(()=>textBox1.Text = awaiter.GetResult());
}
catch (OperationCanceledException)
{
textBox1.Text = "операция отменена";
}
Защита сайта от автоматизации действий на нем.
Пример, есть онлайн-казино или интернет магазин или сайт, который предлагает некую информацию, теоретически и практически можно написать программу, которая будет автоматически выполнять некие действия на нем с целью получения некой информации или другой выгоды.
Ну например ваш сайт авто.ру, а кто-то написал программу, которая собирает статистику по машинам и публикует где-то у себя с целью получения выгоды, вам это не нравится и тд и тп
Вы, как человек, отвечающий за безопасность хотите знать, использует ли кто-то такое ПО у вас на сайте, а так же хотите предотвратить это.
С помощью чего можно автоматизировать действия (например): Selenium
С помощью чего можно собирать информацию с сайта (например): HtmlAgilityPack
Примеры защиты:
-определение селениума через js, чекаем ip (можно обходить через прокси, тор)
- ограничение по количеству запросов с ip (можно проанализировать плюсы и минусы)
- аналитика в яндекс метрике (веб визор) если через селениум ходят или аналоги
- 301 редирект с установкой кукисов
- логи nginx или аналогов
- настройка оповещений об угрозах
ну и еще 1001 способ с этим бороться, покопаться будет интересно.
Язык, относительно которого я все это написал: c#
Как можно понять, что к вам пришел робот или человек и как это предотвратить: тема вашей вкр.
Все тоже самое можно реализовать с помощью чего угодно. Все что я дал выше - примеры и мое мнение, оно может не совпадать с мнением остальных людей.