Sergey, "предоставляют" – это неограниченному кругу лиц. Если я предоставляю прокси для одного-единственного сервера, то каков механизм? Найти сам прокси – да, легко (как выше написал Saboteur, например), но про исходный сервер никто не знает кроме его же админа и его команды.
У меня нет ни цели, ни в планах открывать этот прокси кому-то ещё, если хватит знаний, то ограничу доступ только для конкретного одного IP с парочкой ботов.
В любом случае, мой исходный вопрос про настройку, а с последствиями я разберусь. Но спасибо за информацию и предупреждения! Буду учитывать это в рисках.
С одной стороны, почему РКН должен его заблокировать? Там даже домена не будет и общаться он будет только с двумя серверами: Телеграм и с СерверПриложений, – никаких общедоступных клиентских сайтов и прочего.
К тому же, СерверГейт в данном случае может быть любым дешёвым VPS и действовать как гейт. Даже если вдруг и случится блокировка (скажем, всю подсеть хостера внесут в список и нас заодно), то создать таких парочку и делать новых нет проблем.
Игорь Горгуль, пока что не использую, т.к. в prerequisites указано аж 2 Гб RAM и Java, которых на сервере нет. Если уж стрелять из пушки, смотрю на отдельный сервер для метрик/логов, туда много памяти, а с клиентов только логи слать.
Но это уже не "простейший инструмент" так что изучаю только по выходным (-:
Смогу попробовать через две недели. Но выглядит интересно, спасибо!
Пока быстро проглядел ридми по contentpack и я правильно понял, что это будет возможно сделать только с новыми логами, а старые надо будет как-то руками конвертировать в новый формат?
Можете посоветовать готовое решение для конвертации?
mureevms, если я правильно понял, это целый сервер для рисования графиков и сама она ничего не умеет делать с логами.
Во что тогда из того списка порекомендуете закинуть лог-файл чтобы получить результат с минимумом телодвижений? У неё есть очень много "Plugin Type: Data Source",– а я впервые вижу все эти названия.
CityCat4, да, я тоже таким образом подумал. Поэтому и решил использовать nginx+php (как наиболее знакомую связку, хотя это не принципиально). Но не смог "просто мониторить 25 порт и вытаскивать из запроса письмо", к сожалению – nginx чего-то ждёт и любой запрос валится по таймауту, при этом без ошибок.
Может быть, вы знаете с помощью каких инструментов написать данного демона?
CityCat4, спасибо. Я писал в вопросе о том что пробовал его использовать, но не понял где и как писать более сложную логику маппинга, чем хэш-таблицу.
В случае с указанным туториаломнужные правила звучали бы примерно так:"Отправлять письма через 5 разных аккаунтов/провадйеров, не чаще 100 писем в 10 минут на один сервер, лишние принимать, ставить в очередь и отправлять позже по логике FIFO", – с той разницей, что вместо аккаунтов мейлгана другие сервера (или несколько разных сервисов отправки писем).
В документации к конфигам postfix я нашёл всякие `relayhost_map` / `relay_transport` и т.д., что всё-равно является статической таблицей. Как вместо этого использовать скрипт на нормальном ЯП (а не на конфиге) – мне пока что не понятно (я знаю, что это медленнее чем статика, но это не важно в моём случае).
Axian Ltd., конечно в кучу – если бы я разбирался в вопросе, то его бы и не задавал, а задачу решил.
Было бы хорошо, если бы направили на прямой путь, а не только указывали, что мой кривой – это я и сам знаю.
ps: IMAP не нужен, только "роутинг SMTP".
Про кучу запросов была догадка. Теперь после вашего комментария сделаю и продебажу, спасибо – вдруг Доктрина умнее, чем я думал (-:
В целом, это вообще нормальная практика? За такое по рукам не бьют в компаниях, следящих за качеством кода?
Меня смущает зависимость от репозитория в сериализаторе – как если бы в json_encode потребовалось бы передавать инстанс pdo. Но я не понимаю как это отрефакторить, если вообще нужно. Тестить, вроде, сложнее не становится.
Прощу прощения за некропост, но.. какие есть лимиты в 2318+32 символов? (-:
Сейчас столкнулся с 414 (nginx 1.10.0, php-fpm 7.0). До рефакторинга на post надо починить "чтобы работало".
Прошёлся скриптом – на 2318 ещё 200, на 2319 уже 414.
Изменения client_header_buffer_size и large_client_header_buffers вообще не меняют ситуацию. Весь остальной конфиг не изменённый из коробки (ubuntu 16 lts).
В какие ещё конфиги стоит посмотреть? При 414 в access логах пусто так что я предполагаю, что это всё-таки nginx.
Денис Загаевский: там код явно пахнет копипастой из кода одной компании в другой без явного на то указания.
Скажем, если бы эту функцию автор вынес в отдельный хелпер/библиотеку за пределами компаний с соответствующей лицензией (кстати, какая бы подошла в данном случае лучше?), а затем подключил как зависимость – это было бы нарушением или явного указания для всех "я использую чужой код с такими-то условиями" достаточно чтобы защититься от суда?
Я иногда так делаю, когда не хочется изобретать велосипед несколько раз для типичных задач.
1. Можно: CURLOPT_RANGE + CURLOPT_WRITEFUNCTION. Главное подобрать число байт достаточным и помнить, что парсить потом придётся руками ибо DOM будет не валиден без скачивания всей страницы целиком.
Смотрю слайд №55 – там есть два примера, помеченных "bad", но нет примера "good". Можете привести хороший пример?
И вообще, набор отличный, спасибо. Но иногда не хватает примеров кода "как не нужно делать" + "какие проблемы будут" = "как лучше по bast practice".
Поясните? С учётом моей некомпетентности в этой сфере (нет у меня в штате сисадмина или девопс), не вижу разницы между докером и вагрантом.
Если что-нибудь можно автоматически деплоить через gitlab ci, в контроле версий иметь конфиг окружения проекта и без проблем соединить с базой данных на другом сервере (вне образа) – я это согласен использовать (:
Сейчас пока (только на личном ноутбуке) использую вагрант как виртуальную убунту, в окружении которой разрабатываю проекты и постоянно торчу внутри неё руками по ssh.