Bohdan Zadorozhniy, А надеюсь вы
scp /etc/mysql/debian.cnf root@192.168.0.106:/etc/mysql/debian.cnf
айпи меняли ? у вас на вторм сервере то база появилась или вы ее ручками залили
дайте в студию полный лог того что вы реально делали
пароль к бд можно скрыть звездочками а вот остальное давайте сюда
поддерживаю решаем в начале все штатными средствами потом мутим велосипед, бутстрап это всего лишь css фреймворк, желательно ему предоставлять уже готовые данные, даже такие мелочи как ресайз картинок
balanana, создйте там аккаунт, он бесплатный, и множество вещей там бесплатные, а баланер там в зависимосит от тех сервисов что вам потребуются там тарифы выбирайте смотрите достаточно легко все делается.
Илья Т., юмор это всегда здорово, тем более лучше срача.
правда аналогия тут немного другая, в частности я не призываю вас писать на asambler посколкьу да с костылями ходится как-то эффективнее
я не призываю вас писать в бинарном коде поскольку в 99% случаях это будет просто потеря времени.
Я не призываю вас пользваться gentoo поскольку для повседневных задач реально проще пользоваться чем-то более приземленным.
Вот только проблема наступает в том месте где нужна аналитики действий того что нужно сделать, где нет манов гайдов готовых решений.
Где вам нужно самому тварить.
И тут наступает переломный момент все вышесказанное становится признаком "проффесионализма" притом высочайшего уровня.
У вас есть вакумный выключатель на 400К ват и да его можно запрограмиить только на айсемблере мало того еще и кастомного со своими инструкциями, разница в хорошем электрике и плохом будет только в том что один из них сможет это сделатьа другой нет, розетку они оба соберут нормально.
Разработчик пишуший бинарный код в состояние патчить уже компилированные exe файлы, заниматься реверс инженерингом. Там нет никаких костылей и тапочек, чистый хардкод, тупо его скил.
Если вам нужно разработать свою железку, тупо брать за основу для нее ubuntu вы возьмете gentoo поскольку как минимум тебе нжунопересобрать собственное ядро убрав из него все лишне, притом лишнее именно тебе.
И да тут нет никакх тапок и бумаги тут только твое чистое понимание работы.
То же касается и анализа данных Линукс, в самом начале ты ищешь тапки поскольку при переходе с винды очень трудно понять как тут без них вообще работать то.
потом пишешь эти тапки, потом оказывается что их до тебя уже кто-то писал ты начинаешь юзать чужие.
Но функционала не хватает, ты патчишь их поделки выкладываешь свои форки.
А потом ты понимаешь что тебе проще реально все сделать в две строчки чем вее это городить.
А главное все эти поделки нужно с собой таскать ставить и поддерживать в актуальных состояниях. В результате их остается совсем мало ( замечу не 0) а мало
да я предпочитаю юзать htop, чем топ, да я часто пользуюсь mc и даже поиском в нем, хотя да find -exec grep -l намного гибче но в mc обычные задачи решаются просто быстрее.
Все задачи касающиеся логов нештатные, если ты в них полез что-то пошло не так, тебе нужнорешить твою задачу.
Кто -то ддосит один из 600 сайтов, нужно найти кто и как, написать заплатку.
это не сложно но нужно анализировать входящие данные.
у тебя поехала крыша у памяти ты лезишь в логи смотришь
у тебя пошло переполнение памяти
у тебя отваливаются хосты И ТД И ТП
универсального решения тут нет посколкьу твоя задача она уникальна тут нет бумаги.
тут поднимается тупо твой скил, а поскольку ту юзал костыли и бумагу ...
Илья Т., ЭЭ у меня лог около 20 ГБ ниче не встает никуда, встать может только при переполнение массива, но в таком случае вам нужно отказаться от регулярки при старте в таком случае таких проблем не будет ни при каком размере файла.
sphinx прекрасно может решить проблему с индексами, но не совсем понимаю что вы там собрались индексировать и что вы там собираетесь быстро искать.
НУ и да подходы у всех разные, но чем чаще вы пользуетесь возможностями самой ос
тем меньше вам нужно стороннего ПО
В свою очередь я предпочитаю пользоваться именно стоковыми возможностями даже не bash а sh поскольку последнее более распространено и при работе с незнакомым сервером у вас будет возможность так же комфортно работать как и раньше, любой костыль ( замечу даже удобный) требует установки а порой это сделать попросту невозможно, так что проще приучиться работать с потоком ввода вывода, поверьте у вас просто не появится идеи зачем вам нужно такое логирование.
Поскольку просто читать логи как правило не требуется а требуется анализ, подсеты сумировани групирование и тд.
я не совсем понимаю зачем вам sql
Основная задача sql - то чего не может файловое хранение это транзакции, параллельной записи у вас там не намечается следовательно этот плюс пропадает, зачем перетаскивать то что и так прекрасно работает в демона который замечу может отвалиться, крашнуть таблицу и тд не совсем понятно ?
удобная фильтрацияч ?
grep отлично фильтрует и ищет
tail -f - работает с потоком
sed awk тоже вроде никуда не делись
Вот и вопрос а зачем?
Вот пример реально первого попавшегося мне в истории поиска по логу
как вы это собираетесь сделать через GUI ?
боюсь что для действительно комфортной работы а главное эффективной вам нужно знать консольные команды как свои пальцы только в таком случае вы получаете мощнейший инструмент аналитики логов.
Как следствие вам не потребуется GUI.
Именно по этой причине в линукс все плохо с GUI утилитаи, те кто плохо владеют консолью как правило не в состояние написать такую утилиту, а те кто умеют пользоваться консолью не собираются ее писать поскольку она просто не нужна. И это касается не логов а вообще всего линукс.
А красивые графики и тд это здорово но в реальной жизни у вас есть конкретные задачи.
это просто настройки днс сервера
к веб серверу это отношение имеет посредственное.
Вам нужно установтиь веб сервер на вашу вм
самый прсотой вариант это сделать посатвить bitrix vm
Vestscp
braynycp
и тому подобное
Alex Wells,в задаче нет ни обьемов ничего.
Исходя из логики сколь либо значемый проект такоуй хренью не занимается и уж тем более не задают столь простые вопросы.
по этому говорить о какой-то системе кеширования и тд тут смысла нет.
тут очевидно делается костыль я лишь предлагаю его не распространять за пределы пхп
Виктор Таран, блин да не нужно было удалять комент.
опишите как вы добавляли сайт на сервер последовательность
ДНС запись меня пока не интересует.
Имено как создавались папки для сайта на сервере
Lola Gasanova, J о боженьки вы мне сейчас показали кирпич на вопрос о рыбе ;)
давайте по порядку где вы добавляли первое доменное имя покажите это место ?
именно когда создавали его на этом сервере ?
или вы это делали через конфиг ?
Alex Wells, затем что проксировать можно несколькими способами
nginx -proxy_pass
apache -mod_proxy
ну и пхп
так вот на сайте работают в основном разработчики php и естественно с php кодом они легко разберутся, не в момент его создания в в момент когда другй человек или через 3 года нужно будет вспомнить это место.
Если же делать это средствами самого сервера то
1. Вы привязаны к текущему конфигу и нужно всегоад помнить про его существование, что станет проблемой для нового разраба или всмомнить о этом тому-же через пару лет.
2. Вы используеете более обширный стэк технолгий, хоть и простых.
3. при востановление бэкапа на строннем сервере должен быть nginx или апачь соответственно в принудительном порядке, ибо конфиг нуно будет в него вписать или переделать под текущий веб сервер.
4. перенос на новый сервер, см пункт 3
И того для решения этой задачи хватает обычного разраба
против
двух сисадмина и разраба.
Это экономически дешевле обслуживать.
1 да все но, часть из них прокачивается под высоко частотные запросы часть под средни часть по точному вхождению.
Глупо надеиться на одинаковый трафик от запроса "купить трусы"
и "красные трусы с мехом в зеленый горошек. "
эти запросы имеют совершенно разные механизмы раскрутки разный процент конверсии и количество показов.
И да вы же не под каждый запрос делаете страницы, часть запросов будут не иметь страницы куда-то им нужно идти.
2 Да можно сделать их как отдельные страницы но вы можете нарушить структуру сайта , что отразится вам в дальнейшем при его росте.
тут нужно смотреть всю структуру сайта.
3 В примере не услуга разделяется территориально
а одно является вложением в другое, то что там территория в запросе попалась это всего-лишь пример.
Так же не забывайте что я вам указал одну статцнию метро, так же их 1000 штук, так же есть еще и города.
И тут структуризация очень важна, поскольку возможна канализация запроса, проблемы с фильтрациями построениями меню и тд и тп
У вас собрано семантическое ядро запросов ?
покажите вашу " сео карту"
пару урл- запрос куда какие вы собираетесь вести ?
Алексей, из минусов этого вы получите жесткую привязку сайта к nginx
если же вы сделаете как я сказал этой связки не получится, весь сайт се еще будет не привязан так полотно к среде
я тут писал около года назад.
https://klondike-studio.ru/blog/ispconfig3-nginx-a...