res2001, я так понял, что он хочет некое решение по дедупликации данных - один образ системы, а каждая ВМ будет иметь только разностный диск от этого образа, который не будет слишком уж большим из-за небольшой разницы между базовым образом и работающей настроенной системой. Вроде бы VMware таких шуток не позволяет, там же дерево AVHD->(A)VHD с одним корнем, и при смене корня все, кроме одного листа, оказываются нерабочими.
Artem Moseev, если класс extends другой класс, то для работы полиморфизма у методов подкласса должна быть такая же сигнатура, как и у методов суперкласса. Так что кормить hunt строго волком нельзя - не вызовется, если тип ссылки, от которой вызывается метод, Hunter конкретно. Если WolfHunter - вызовется, но как раз вот это и есть bad practice.
Странно, что не сработало - может, забыли перезагрузить клиент (кажется, это требовалось в инструкции)? По идее только вайршарком отлаживать такие глюки.
Вообще, дроп по умолчанию - едва ли не обязательный пункт в настройках файрволла в продакшн. Для отладки можно REJECT-правило писать в конце цепочки для региона локальной сети.
Сергей, от этого спасает yum install iptables-service и периодическое выполнение service iptables save (хотя и костыль немного, вызывает iptables-save в /etc/sysconfig/iptables, откуда он его восстанавливает при перезагрузке). Alexander777xx, убрать -P OUTPUT DROP, иначе с сервера ничего нельзя будет открыть (в том числе обновить систему!), ну или добавлять отдельно какие-то правила в OUTPUT тоже. Да, если policy стоит DROP, можно в открытом виде не задавать запрещающих правил, все равно по умолчанию подропается.
sim3x, я на скрине вижу загрузку хромом проца на 70%, а windows defender'ом на 2.5%, правда именно дефендер шарится по диску, а не хром. Вопрос все-таки, а почему хром так жрет проц?
Артем Енин, а вдруг у вас есть что-то вкусненькое? :) Всего лишь. Подобные сканеры сканируют весь пул IPv4, и только вопрос времени, когда они наткнутся на вас (или меня, например).
Артем Енин, по поводу поиска источников трафика - в принципе, туда действительно лучше не ходить, тем более, что трафик в среднем посылает нежелательное для владельца оборудования ПО. Разнообразна потому, что ботнетам неважно, где находится уязвимый узел, на котором запущен экземпляр, они все равно слушают команды из одного (плюс-минус) центра и действуют однообразно. Узнать, где это, позволяет 2ip.ru/whois, или любой другой whois-сервис. Если внезапно удастся сопоставить DNS-имя с айпишником, можно владельцу сайта на контактное мыло заслать информацию, что мол на вашем сайте вирус (в случае с веб-хостингом можно заслать не тому, но всегда можно послать прямо хостеру, что с его IP-адресов идет атака, и пусть он уже разбирается, какая зараза на его мощностях снифает интернет).
Артем Енин, на основании нескольких подряд событий заблокированного трафика можно включить временную блокировку всего трафика от этого узла, чтобы даже в логи ничего не попадало (ну или пусть количество попыток соединения после блокировки попадает, что будет основанием по результатам анализа блокировку продлить), для программных файрволлов решением такого рода является fail2ban (советую почитать принцип его работы), для pfsense может найтись или модуль или функция с тем же назначением.
А узнавать не надо с такими-то логами, брутят.
Вот что ещё делать, помимо настройки триггера на подобный брут и действий по нему - вопрос более серьезный, здесь эксперт по файрволлам нужен, а не любитель :)
test2235, при передаче от клиента к серверу - всё, что blob, преобразуется, всё что названо текстом - нет (по умолчанию, некоторые сайты прогоняют текст из полей в base64 вручную и результат уже отправляют). При передаче от сервера клиенту - бинарные данные ходят как есть, но в ответе должен стоять заголовок Content-Type, указывающий клиенту, какого типа данные ему передаются (скажем, "image/jpeg"), и Content-Length, чтобы клиент знал, сколько байт ему читать, после чего клиент их интерпретирует как есть. По-моему так.
test2235, дык протокол HTTP изначально не рассчитывался на передачу бинарных данных, эту фичу потом допиливали в условиях уже появившихся ограничений . Даже несчастный <img src="..."> и тот пришлось отдельно впиливать, уже в HTML, и обеспечивать возможность передачи изображений (и потом отдельно файлов) в HTTP. Легаси как оно есть.