Иван, На прямо таки разном нет.
Но на одинаковом работает.
Главное чтобы процессоры были одинаковые - в смысле интел. Понятное дело на амд не заведется, но так амд и встречаются крайне редко.
А дрова в основном подтягиваются из сети. Если на сеть нет, можно воткнуть свой вайфай свисток и подключится к вайфаю.
А поподробней там установлен сервер 1с? Или клиент?
В каком режиме работает 1с.
Клиент-серверный, файловый с публикацией на веб, прямой доступ к файловой базе, сервер терминалов?
современные процессоры не умирают, даже если их включить вообще без кулера, там многоуровневая система контроля температуры и питания
Вот эта вся система она на материнской плате.
Сам процессор с себя питание снять не может. Он просто сообщает о том, что это надо сделать.
Это делает логика системной платы.
Если системная плата Huanan x58 - запросто спалит.
Сергей Сахаров, Ну я так же захожу на том же микротике, и на кинетике.
Там доступ к фаерволу есть, можно перенаправить порты.
С внутренней сети попадаешь на 80 роутера, с внешки стоит перенаправление порта на сервер - попадаешь на сервер.
Сергей Сахаров, Как не используется? А как вы в вебморду роутера заходите???
Вот им и испоьзуется.
Снаружи - это значит снаружи роутера.
С домашнего компьютера из локальной сети это тоже снаружи.
Если есть нормальный доступ к фаерволу - настройте редирект портов например 80 перенаправьте на 8080 порт локального компьютера для всех входящих, кроме входящих с адресов локальной сети.
Пробовал, работает отлично.
Но не прижилось - это перезагружать надо, удобнее с виртуалкой работать.
Диск спасает только в случае поездок и работы на чужом оборудовании, а я сейчас работаю в основном дома.
В качестве флешки использовал контейнер Ugreen для M2 дисков и NVME диск Samsung Pro на 500гб.
Обычную флешку в качестве системного диска использовать не стоит - там скорость ужасная заметно хуже чем на HDD.
Я просто имею достаточно большой опыт администрирования серверов в небольших организациях. Стоят серверы на банальных CoreI3 - дешево и сердито, все прекрасно работает и никаких проблем.
И сталкивался с проблемами именно из серверного железа.
Например -
Москвичи организовали сеть лесоперерабатывающих и лесозаготовительных предприятий в регионе, естественно филиалы расположены в сотнях км от города, в небольших селах.
Ну раз в филиале есть бухгалтера, кадровики, нужен сервер 1с. И разумеется настоящий по феншую HP.
В общем проблема - сервер не работает, работа стоит. Еду 270км, приезжаю, в бухгалтерии на шкафу рядом с кипой бумаг лежит стоечный сервер. Лежит и молчит. Причем уже третий день.
Они конечно вызывали местного спеца, который в селе компьютеры починяет, но он увидел сервак и убежал.
Вскрытие показало - хана блоку питания, всем двум блокам питания. Ну с электричеством у них вообще беда, рядом работают мощные трехфазники, сеть слабая, бесперебойника нет, в общем не удивительно.
Сгорел один бп, он прекрасно работал на резервном - никаких проблем, этого никто не заметил, сгорел и второй.
Был бы обычный компьютер - ну купил бы в этом же селе блок питания, есть там небольшой магазинчик.
Но тут - покупать только в городе, и у системного интегратора, и не за наличку, и сразу два, а еще лучше три на запас, и настраивать мониторинг. И убирать сервер со шкафа, ибо бухгалтера жалуюются что гудит сильно. А куда уберешь - серверная не предусмотрена. А с мониторингом тоже не все хорошо - там нестабильный АДСЛ.
В итоге оплатили, через неделю забрал, привез поставил - день делов, 600км за день, чисто блок питания поменять.
Или еще пример - филиал крупной организации в городе, хороший сервер, рэйд 5. ну казалось бы живи и радуйся.
Только вот к хорошему серверу с рэйдом еще и мониторинг нужен. А не было его. И толку от рэйда.
По идее должны были мониторить из центрального офиса, но кому там дело до филиала.
Вылетел один диск, он проработал еще пару месяцев на оставшихся - мониторинга нет, никому и дела нет, разве что помедленнй стало работать, и в итоге вылетел второй.
Рэйд развалился - бэкапы свежие конечно же по классике жанра на этом же рэйде, где ж им еще быть.
В итоге три дня простой в работе, и пару месяцев восстанавливали базу из бэкапа месячной давности.
Зато сервер настоящий, а не какой нибудь там corei3 в корпусе из ДНС.
Мораль - к серверному железу нужна инфраструктура!
Дизельгенератор, АВР, серверная с кондинционированием, дежурный сисадмин, система мониторинга, договор на поставку обслуживание, ибо ту же серверную память или диск попробуй найди в ближайшем ДНС.
Вот тогда от него есть смысл.
А нет инфраструктуры - ну поставь блин собранный из комплектухи из ДНС сервачок на шкаф, и не выеживайся.
CityCat4, Ну давайте по порядку, чем отличается серверное железо от десктопного.
1) Корпус - если у вас один, два сервера вы можете взять десктопные корпуса и все будет отлично.
Если же у вас их 40 - обслуживать такое количество серверов в десктопных корпусах нереально. Я кстати видел такое - кучи проводов валяющихся на полу и сервера рядками стоящие на столах. Ну и наоборот -стоечный сервер, гудящий как взлетающий боинг в офисе над столом менеджера, не меньший трэш, а что поделать, если у вас арендованный офис и нет помещения под серверную?
2) Охлаждение - десктопное железо ориентировано на работу среди людей, чтобы уровень шума небольшой был, в серверах - пофиг на шум, главное стабильное охлаждение.
3) В серверах есть множество специальных функций ориентированных на бесперебойную работу - резервирование питания, горячая замена компонентов, память ECC, рэйды, и прочее подобное. В обычном десктопном железе это никому нафиг не надо и этого нет.
В итоге на серверном железе можно обеспечить бесперебойную работу, на десктопном нет.
Но тут такой ньюанс - если вы купили сервер с ECC памятью и двумя блоками питания, это не залог бесперебойной работы! Это лишь возможность построить бесперебойную работу.
Какой смысл от двух блоков питания если у вас нет резервной линии, дизельгенератора, АВР ?
Какой смысл от горячей замены если у вас нет договора о поставке запчастей с системным интегратором?
Какой смысл вам обеспечивать бесперебойную работу, если вам дешевле и выгодней остановить ненадолго работу, наладить и продолжить? Как правило при небольшом количестве пользователей и серверов так оно и есть. Редко кто из за пары серверов будет покупать и обслуживать дизельгенератор,
И редко кто из-за пары серверов будет заключать договор на обслуживание с системным интегратором. Это дорого. Хотя и удобно.
Такие фишки как KVM - не во всех серверах они есть, если есть то как правило за нехилую подписку, а купить отдельный IPKVM если уж очень надо сейчас не проблема.
В некоторых интеловских десктопных платах кстати тоже встречал KVM - одна из фишек технологии intel-Vpro. Мат. платы с буквой Q.
Та же память ECC - в чем ее смысл?
Любая память может прочитать данные с ошибкой. И что при этом произойдет - да компьютер банально зависнет, или перезагрузится. Будет перерыв в работе. Это печально.
Но такое с исправной памятью происходит крайне редко - по статистике раз в пару лет непрерывной работы планки памяти.
Если у вас сервер с двумя планками памяти без ECC - ну перезагрузится он по непонятной причине раз в год. Некритично, из за выключения энергии он чаще будет перезагружаться.
А вот если у вас система из 50 серверов и на каждом по 8 планок и все без ECC то та же статистика подсказывает что вы будете сталкиваться с этим в 200 раз чаще. Т.е почти каждый день из за сбоя в оперативке будет перезагружаться сервер, останавливая работу всей системы. И тысячи пользователей будут ждать несколько часов пока восстановится нормальная работа.
Поэтому если у вас один сервер на котором крутится какая нибудь там 1с бухгалтерия и торговля с которой работают 10-20 человек. Подойдет сервер из обычного десктопного железа. Обеспечить бесперебойную работу очень дорого и для такого количества пользователей как правило нерентабельно. Если уж сильно надо арендуйте сервер в ДЦ. Но самим никак. Поэтому все эти ECC, резервные блоки питания с горячей заменой нафиг не нужны.
А если у вас достаточно серьезная сетевая инфраструктура с большим количеством серверов и пользователей - без ECC, резервных блоков питания, рэйдов, горячей замены просто невозможно работать. Вообще никак. Это не каприз, а суровая необходимость.
Поэтому тут все просто - если у вас стоит сервер на десктопном железе и вас все устраивает. Вам нафиг не нужно серверное железо. Если у вас нет регулярных проблем из за сбоев памяти - нафига вам тратить деньги на такую фигню как ЕСС, это дорого.
Что еще по серверам - ну процессор там немного другой, больше кэш, больший упор на многопоточность.
Как правило серверные процесоры оптимизированы для производительности - не очень быстро, зато очень много пользователей и процессов одновременно. Как фура - едет медленно, но везет много.
А десктопные наоборот. Ориентированы на скорость, как можно быстрее дать результат. Но с одновременной работой большого количества пользователей и процессов у них все не очень. Как спортивная машина - ездить быстро, но кроме водителя и небольшой спортивной сумки багажа ничего не увезешь.
Поэтому - если вам сервер для дома или небольшого офиса. Так называемый SOHO - то вам лучше ориентироваться на десктопное железо.
Если у вас крупная корпоративная система и свой ДЦ - ну тут без вариантов только серверное.
Если нечто среднее - смотреть по ситуации и считать.
Сервер это роль.
Расшарил на компьютере папку - вот уже у вас файловый сервер.
Если вы под сервером имеете ввиду железо корпоративного класса - его есть смысл брать когда у вас сотни серверов и тысячи пользователей.
Если надо один два сервера - покупаете в ближайшем днс железо и радуетесь.
А память 128 сейчас можно поставить на любой офисный компьютер фактически.
Недорогая системная плата, главное чтобы четыре слота под память и четыре планки по 32.
Сервер далеко? Проверьте пинг и джиттер через впн.
1с очень чувствительна к этому особенно на обычных формах. Обычно не в скорость упирается а в пинг.
Попробуйте обойтись без VPN. Либо используйте сервер терминалов расположенный рядом с сервером 1с.
Ничего подобного, просто начинают глючить, и все.
В ридонли переходят хорошие диски по исчерпанию ресурса.
А вот всякие бюджетные как раз грешат такими проблемами.
Born2com_fixtf2, Конечно отражается. И не только.
Если вы хотите заблокировать WiFI с помощью фольги вам надо
1. Обмотать точку доступа фольгой со всех сторон.
2. Заземлить фольгу.
И да - фольга должна быть металлической - алюминий, медь. А не пластиковой. На окно чаще лавсановую вешают.
pfg21, Зачем такая строгость?
Человеку свойственно ошибаться.
Хоть учи, хоть не учи.
Поэтому надо думать как исправлять последствия ошибок. А ошибки будут в любом случае.
Но на одинаковом работает.
Главное чтобы процессоры были одинаковые - в смысле интел. Понятное дело на амд не заведется, но так амд и встречаются крайне редко.
А дрова в основном подтягиваются из сети. Если на сеть нет, можно воткнуть свой вайфай свисток и подключится к вайфаю.