Как защитить страницу регистрации в MediaWiki от роботов?
У меня небольшой wiki-проект на движке MediaWiki. С некоторых пор на нём наблюдается перерасход процессорного времени, из-за чего хостер грозит отключить доступ. Судя по логам, это роботы с разных IP ломятся на страницу регистрации. В основном запрос идёт на /index.php?title=Служебная:UserLogin&action=submitlogin&type=signup&returnto=Заглавная страница. Например, с одного и того же IP таких запросов было за сутки 339. Из всех запросов на страницу Служебная:UserLogin было 88 %.
Как с такими проблемами принято справляться?
На странице регистрации стоит ReCaptcha, а что толку? Расходы по генерации каптчи перекладываются на сторонний сервер, но это никак не мешает роботу раз за разом биться на мою страницу, расходуя мои ресурсы.
Почти год я банил по IP в htaccess с переменным успехом, но в конце концов посмотрел на логи повнимательнее и забанил трёх ботов по UserAgent в robots.txt и, для верности, в htaccess. После этого нагрузка на сайт резко упала. Вроде бы проблема решена. Так же удалось отбиться в другом проекте, на WordPress.
Я столкнулся с такой же проблемой, когда разворачивал вики для нужд небольшой группы разработчиков. Решил эту проблему путем установки серверой авторизации через nginx - нагрузка на сервер резко упала. Вам подойдет такой вариант?
А вопросы к QuestyCaptcha сами придумывали? Где найти готовыен вопросы на русском? А то придумывать -- это прям задача (у меня получается какой-то троллинг а не вопросы)