Конечно, самое разумное - обязать всех хранить важную инфу в сетевой шаре на сервере. Но сейчас меня интересует ситуация, когда в компании бардак "от и до" и подобные требования со стороны сисадмина мягко говоря "не поймут". Пусть пока ровно тоже самое относится и к папке клиента синхронизации любого облака.
Спасибо. А атрибут +F действует рекурсивно для подпапок, в т.ч. новых? И есть ли подводные камни опции casefold, которые могут привести к потери информации?
Ivan Ustûžanin, но простое копирование идет одинаково быстро. А сравнение идет с разницей в два раза. А HDD - это бутылочное горлышко с лимитом 170 МБ/с (или 1300 МБит/с) и медленным случайным доступом. Что-то не сходится, совсем не сходится, сеть в два раза по пропускной способности перекрывает возможности диска)
alexalexes, а это можно как-то ускорить? Jumbo-фреймы вот к примеру я пробовал, разницы не увидел. Зато разница на несколько МБ/с была при смене гигабита на 2.5G.
Adamos, мне винду с NAS не выкинуть. Это для дома, Linux там избыточен и потенциальный источник проблем, которые не хочется решать, дом не работа всё-таки. Взять хотя бы имена файлов - 140 знаков на кириллице и на Linux с винды такой файл не скопируется, ищи их потом и переименовывай. Плюс наличие винды дает мне возможность в случае чего прогнать викторию и другие привычные виндовые утилиты. И т.д. и т.п. Сравнение по содержимому делаю раз в полгода, хочется понять как ускорить.
Через FreeFileSync, как я писал, тоже самое. Там чтение в один поток на диск. Хочется понять, почему USB быстрее быстрой сети в два раза именно и только на сравнении файлов. Там даже не случайный доступ же.
Контрольные суммы (я пользуюсь HashCheck Shell Extension) хотел оставить на крайний случай, т.к. хоть и с околонулевой вероятностью, но возможны коллизии, а сравнение "байт с байтом" гарантирует 100% надежность. И чуть больше лишних телодвижений нужно проделать, в отличии от скрипта на FreeFileSync.
Ziptar, прошу прощения, все в голове смешалось, попутал. Да, речь про дополнительные 4 байта в начале фрейма после MAC адресов, что идентифицируют номер VLANа и приоритет (плюс забыл про еще два байта на TPID).
Я не специально же. Два кинетика через тупой свитч по дефолту гоняют трафик гостевого сегмента через VLAN 2. Специально если не задаваться этим вопросом, можно даже и не ведать что они творят)
Спасибо. Использовал ее когда-то для бэкапа, главная фишка - программа сохраняет старые версии и удаленные файлы в указанную папку (отличная защита от шифровальщиков). Но отсутствие централизации и необходимость "ручками" на каждом ПК ее настраивать меня не устроила. Плюс неудобно, что нужно создавать отдельного юзера и из под него запускать программу, если бэкапы ведутся по SMB, чтобы шифровальщики не потерли всё. И главный минус - если нужно бэкапить не одну, а 5-10 папок из разных мест диска, то настройка становится еще утомительнее, в отличии от того же Urbackup, где я бы просто указал список папок и все, а он сам уже разберется как это бэкапить и куда складывать. Имхо, это больше "домашнее" решение..
RStarun, там по-разному. Например, сотрудники зачастую не заморачиваются над вещами вроде удаления zip-папки с трехгиговым проектом, более не нужной после отправки его по почте. И лежит потом такая папка с сотней других рядом с оригиналом. Встречаются и те, кому лень разбираться и они тупо делают копию чего-либо, работают в ней, потом еще пару копий сделают. Большинство ПК таким образом представляют из себя мусорку, из которой ничего не удалишь по типу "не помню что это, разбираться лень, пусть лежит - вдруг пригодится". Объяснять что-то тоже бессмысленно, т.к. есть такие, кто путает ЛКМ с ПКМ и вообще не понимает, зачем в мыши две кнопки (боюсь представить, если им выдать какую-нибудь Х7 мышку к примеру). Спорить, регулировать как-то приказами это без толку, так с самого начала заведено и непоколебимо. Про заражение тоже больная тема на самом деле, т.к. вопросы вроде "чем открыть файл .scr с закрывающими документами, присланный по почте", все еще слышу.
Не нашел опции синтетических полных бэкапов в Veeam Agent. У меня создавалась одна полная и бесконечное количество инкрементных. Может такой функционал реализован только при использовании их Backup Server как репозитория? В Агенте есть еще опция периодического сжатия копий, она убирает старые инкременты, но дает куда большую нагрузку на сеть, чем простой полный бэкап.
rPman, как вариант, на том же c# в принципе несложно написать программу, которая будет получать команды с сервера и выполнять бэкап в назначенный интервал, может даже с поддержкой заливки нового конфига
RStarun, хранилка на 2-3 сотрудника (и так в нескольких офисах) все же дороговато, в том числе в плане ее периодического обслуживания (стоимость владения). Перенаправляемые папки, насколько знаю, не особо шустро работают с большими объемами, хотя возможно я неправ.
Что по очереди, это очевидно, но как быть в ситуации, например когда на одном клиенте внезапно появилось много файлов на копирование, и он не "влез" в свой интервал времени. Ведь клиент А не скажет клиенту В "я всё, теперь ты", координации между ними в такой системе же не будет. Это или разбивать по дням - сегодня А, завтра В, после клиент С, или.. Запускать в цикле скрипт, пока не освободится вирт.диск (наверно это как-то можно проверить средствами win)?
Спросил, потому как у меня было такое, что заменили битый диск в клиенте и восстановили данные из бэкапа, но UrBackup решил, что это новые данные, т.к. дата создания не совпадает (дата изменения файлов прежняя), и надо скачать их еще раз. И скачивал он дня три примерно, там папка была на что-то около 300 ГБ) Остальных клиентов он выстроил в очередь, через три дня в итоге все забекапились без проблем.