Задать вопрос
Ответы пользователя по тегу Резервное копирование
  • Аналог шифрованной папки Windows?

    @rPman
    Единственный способ что то обезопасить - это шифровать на стороне клиента.

    Как только к удаленному серверу кто то другой имеет рут доступ, никакие иные способы шифрования данных на нем перестанут быть надежными, потому что можно подменить логику этого шифрования или логику получения ключа шифрования или банально подсунуть трояна в контекст пользователя и читать уже расшифрованные файлы

    Простейший пример реализации шифрования - это монтирование .vhdx диска по сети (должно работать даже с webdav и точно работает с smb), с шифрованием ntfs (не требует никакого дополнительного ПО на windows, и будет работать даже на home версиях). Недостаток - низкая надежность (если связь будет потеряна на некоторый срок во время записи) или низкая скорость (можно отключить кеширование записи, это защитит данные но скорость упадет драматически), достоинство - зашифрованные данные доступны как обычный диск.

    Если плюшки не нужны а нужна скорость, то создавай архив данных и отсылай зашифрованным на лету с помощью openssl прямо в командной строке
    tar -cf - /путь/к/данным | openssl enc -aes-256-cbc -salt -pbkdf2 -pass pass:ВашПароль | ssh пользователь@хост "cat > /путь/на/сервере/архив.tar.enc"


    p.s. я забыл сказать что для сетевых дисков и windows можно настроить iscsi (под linux есть простой сервер), по уму работает эффективнее, даже загружаться по сети можно будет (правда когда я тестировал, у меня винда грузилась с такого диска очень медленно)
    Ответ написан
  • Включать ли дедупликацию для бэкапов?

    @rPman
    Veeam Backup не хранит файлы как они были в оригинале, а создает что то типа архива в своем формате, со своими технологиями сжатия и дедупликации, поэтому файловая система не найдет в них копий.

    Дедупликация это в принципе очень слабый механизм сжатия данных, который срабатывает в ограниченном количестве случаев (пофайлово, а точнее поблочно), когда ты делаешь копию файла и чуть чуть его редактируешь (меняя только его часть, вот например текстовые, если ты вставишь/удалишь символ в начале, это сдвинет содержимое всего файла и он будет считаться полностью изменившимся, но замена одного символа в начале позволит хранить только тот блок, в котором было это изменение, а остальное содержимое будет ссылаться на оригинальный файл)
    Ответ написан
  • Как лучше всего бекапить общие папки?

    @rPman
    Штатный ntbackup в режиме fast (инкрементальный). Лично мне не нравится, неудобно, но зато штатно и все мышевозекательно.
    ---
    Любой архиватор, позволяющий добавлять в архив либо по флагу archived либо по дате, простенький скрипт из трех строчек, сохраняешь дату бакапа в имени файла бакапа и следующий бакап делаешь на основе этой даты с предыдущего (у меня было два каталога - один для последнего единственного файла и второй для всех остальных - при запуске бакапа я брал имя этого единственного файла, делал бакап в этот же каталог и после его успешного завершения перемещал файл старый во вторую папку... если в каталоге два файла при запуске - значит предыдущий бакап корректно не завершился, и значит более новый файл удалить и повторить попытку.

    Делать бакапы - пол дела, их нужно проверять. В случае с инкрементальными бакапами нужно держать где то распакованную версию с последней проверки и помнить дату этого бакапа, разворачивая в нее все последующие инкрементальные архивы. Я тогда не заморачивался с удалением файлов (в планах было хранить список файлов в момент бакапа и сравнивать их скриптом но особой необходимости в этом не было а потом перешел на rsync). Недостаток инкрементальных бакапов, если потерять этот развернутый тест-бакап, то что бы восстановить состояние каталога на последнее - нужно будет последовательно развернуть все, начиная с самого первого стартового. Что бы этого не происходило, нужно периодически пересоздавать 'первый стартовый архив' из тестового, и удалять все бакапы старее.
    ---
    rsync (есть продвинутая с патчами если нужно хранить права но по уму лучше брать ту что на основе mingw) - решил все проблемы, включая удобство использования (смотреть инкрементальную копию как обычный каталог тупо в far/проводник), добавив долгую проверку диска chkdsk после сбоя потому что там миллионы файлов. Это магический ключ --link-dest с его помощью можно указать каталог последнего бакапа, что то типа такого:
    rsync -av --link-dest=/backup/%PREV% /mnt/d/ /backup/%CURRENT%

    Тут PREV хранит дату (например dd-m-yyyy) предыдущего бакапа а CURRENT - текущего.

    И самое главное, на NAS храни не сами файлы (так как по сети не будут переданы ни права доступа ни расширенные атрибуты ни симлинки... а .vhd образ (его можно тут же монтировать с помощью штатного diskpart). На диске сделай обычный ntfs, можно даже сжатие включить (или шифрование, как хочешь). Копировать так данные можно клиентами windows начиная с 7-ки (не starter и не home ревизии), т.е. скрипт резервного копирования запускать прямо на клиенте, который монтирует диск, делает резервную копию, и размонтирует... делать это рекомендуется по ssh с основного сервера, что бы гарантировать что один и тот же .vhd не будет смонтирован дважды (да там и не получится), но если так будешь делать, это значит клиенты будут иметь доступ (да можно права настроить но все же) ко всем бакапам,.. если nas поддерживает, на момент бакапа делать снапшот хранилища, и если бакап завершится без ошибок, удалять иначе откатывать назад и повторять.

    Недостаток подхода - если во время резервного копирования произойдет сбой (повиснет компьютер или разрыв связи), то диск придется чинить с помощью chkdsk, все ничего но времени это будет занимать часами, если файлов в одном бакапе сотни тысяч, то на всем диске будет миллионы. От разрыва связи можно защититься, отключив кеширование записи на диске (в свойствах диска и соответственно его устройства).

    Достоинство - каждый каталог визуально полная копия забакапленных файлов, при этом старые (да и любые) копии можно удалять прямо как есть... используются hardlinks и файлы будут присутствовать на диске в единственной копии пока хотя бы один бакап на них ссылается (читай симуляция дедубликации)
    Ответ написан
  • Где дешевле всего купить 10 Тб облачного места?

    @rPman
    Криптовалюта siacoin, оплата в криптовалюте, хранение дешевле amazon glacier (большая часть цены - трафик download уже сохраненного себе назад)
    https://siascan.com/
    Average storage price Average download price Average upload price
    $1.33/TB $3.72/TB $0.11/TB
    Цены приблизительные в месяц.

    С точки зрения работы это фактически торренты (по умолчанию 3х резервирование и разделение на 40 мест хранения), все участники финансово заинтересованы продолжать хранить и раздавать данные, все зашифровано, децентрализовано.

    Интерфейс на уровне типовых пользовательских приложений dropbox/onedrive (по умолчанию без веб интерфейса), есть api провайдеры (все локально без единой точки отказа) совместимого s3, есть драйвер файловой системы linux fuse и куча всего, дольше изучать...

    p.s. с точки зрения майнеров проект не привлекательный, из-за странного поведения разработчиков, но так как у него есть использование, цены на эту криптовалюту не манипулятивные трейдерами. Проект живет почти 9 лет уже, так что имеет смысл для рассмотрения.
    Ответ написан
    7 комментариев
  • Truenas, пул zfs, возможно ли будет вытащить данные если диск подключить к другому компьютеру?

    @rPman
    Нет, сами пулы не имеют никаких настроек прав доступа (собственно поэтому шифрование и используют, что бы защититься от этого), на новом компьютере можно будет получить к ним доступ
    Ответ написан
    Комментировать
  • Какой существует софт для копирования одного диска на другой?

    @rPman
    У qnap/snapshots есть свои же механизмы резервного копирования, зачем колхозить сверху что то ещё?:
    Ответ написан
  • Как правильно бэкапить в этом случае?

    @rPman
    ACL - во всех современных linux дает дополнительный слой прав поверх привычных chown/chmod.

    Можно с помощью setfacl выдать дополнительные права на файловую систему специально созданному пользователю backup и тогда rsync с удаленной машины сможет залогиниться под этим пользователем и скопировать файлы.
    Типа так:
    sudo setfacl -R -m u:backup:rx /
    а копирование с удаленной машины типа так:
    rsync -aAXv --exclude={"/dev/*","/proc/*","/sys/*","/tmp/*","/run/*","/mnt/*","/media/*","/lost+found"} backup@remote:/ /path/to/destination

    дополнительно нужно будет настроить без парольную аутентификацию под пользователем backup на эту машину

    p.s. резервное копирование больших объемов данных, особенно если файлы большие или, к примеру, во время резервного копирования могут быть записаны, потребует заморозку файловой системы с помощью снапшотов, выбор технологии которых накладывает различные ограничения, например LVS кратно роняет скорость работы файловой системы, на которой создан снапшот. Я бы рекомендовал cow файловые системы btrfs/zfs, у них из коробки максимально эффективная система снапшотов (на основе которой можно создать инкрементальные бакапы на порядок удобнее и быстрее чем с помощью rsync) но они роняют (десятки процентов на hdd) скорость работы баз данных в принципе... в общем нужно думать и правильное решение - исключить файлы баз данных из резервного копирования и настройка этого копирования уже средствами базы данных.

    В общем полностью абстрагироваться от клиентских машин не получится, что то на них настраивать придется
    Ответ написан
    1 комментарий
  • Как проверить 500 000 файлов word,exel,pdf ,txt что они не битые?

    @rPman
    Макросы msword, их даже с нуля писать не придется, так как там есть механизм записи макроса - запускаешь запись, делаешь какие то действия, останавливаешь - он показывает сгенерированный код макроса, выполняющий эти действия, добавляешь в код проверки на ошибку, заворачиваешь в цикл и готово - код простейший - взять следующее имя файла из списка, открыть файл, проверить на ошибку, закрыть файл, повторять до окончания списка.

    Так же можно делать все то же самое из любого другого языка программирования, я помню делал что то похожее на c# в visual studio, это удобнее чем писать на vbscript.
    https://learn.microsoft.com/ru-ru/dotnet/csharp/ad...
    Ответ написан
    2 комментария
  • Куда класть soho/стартап бэкапы?

    @rPman
    Мне кажется вы перечислили самые дешёвые варианты, amazon s3 glacier deep будет тоже уровня цены.

    Если нужна какая то независимость от санкций (серая зона), то предлагаю посмотреть на криптопроекты типа siacoin, инструментарий и сообщество в стагнации, но вот как хранилище работает до сих пор.

    Не представляю что то дешевле чем хранить данные там (порядка 2..5$/м за терабайт +-)... Когда-то по тестам скорость там получалась сотни мегабит, но логично лучше тестировать в своей локации, это ведь как торренты.

    https://siascan.com/ смотреть на цену тут с осторожностью, так как могут не учесть x3 резервирование по умолчанию, лучше поставить клиент и смотреть цены там.
    Ответ написан
  • Как и чем лучше делать бэкап баз 1c?

    @rPman
    надежно это в каком смысле?

    защититься от аппаратных сбоев - raid или кластерные файловые системы (аналог рейда по сети)

    Защититься от ошибок в программе и кривых рук админа, тут сложнее, и только постоянные бакапы.

    Вне зависимости от используемого клиента, если речь идет о mysql или postgres, можно настроить master-slave репликацию на другой сервер (в т.ч. в другой сети), и дополнительно делать резервное копирование базы средствами БД (чтобы не нагружать рабочий сервер, это можно делать на резервном). Это защитит базу от локальных катаклизмов (например пожар или кража оборудования) и отчасти аппаратных (поломка диска или сервера).

    Чтобы надежно, в момент запуска бакапа, нужно останавливать работу с базой (останавливать сервер 1c), запускать бакап файлов исключая БД (например инкрементальный rsync или к примеру на основе снапшотов файловой системы btrfs) и тут же делать бакап базы данных.

    Локальные (в течении дня) бакапы можно делать снапшотами файловой системы или системы виртуализации, внутри которой запущен сервер, это не защитит от проблем с оборудованием но даст возможность откатить изменения на момент бакапа. Если хотите делать такие бакапы при запущенном 1c сервере, то размещать это нужно в пределах одной виртуальной машины (база данных рядом) только тогда эта операция будет атамарной.
    Снапшоты обычно бесплатная операция и они инкрементальны (не используйте снапшоты LVM они тормозят систему) а значит их можно делать часто.
    Ответ написан
  • Как настроить инкрементное резервное копирование папки linux?

    @rPman
    rsync -avh --link-dest=previous_backup/ source_directory/ new_backup_directory/

    добавить ключей по вкусу

    Эта команда будет делать резервную копию source_directory/ копируя файлы в new_backup_directory/ проверяя параллельно предыдущую копию в previous_backup/ и пропуская копирование не изменившихся файлов, создавая для них символические/жесткие ссылки.

    Такой инкрементальный бакап не занимает место на диске но при этом каталог с копией можно читать как обычный каталог. Удаляя старые каталоги так же обычными средствами, ничего в новых каталогах не удаляется (при использовании жестких ссылок).

    По сети чтобы все работало рекомендуется установить rsync демона (как минимум создавать жесткие ссылки через всякие nfs оно не умеет но можно проверить ssh scp/sftp)

    Недостаток, на диске с бакапами созадется миллионы файлов, проверка такого диска в случае чего затягивается на часы. Так же процесс копирования сканирует весь исходный каталог каждый раз, но это делают все инструменты копирования, за исключением btrfs/zfs...

    p.s. еще есть вариант, кардинально иной - использовать файловую систему btrfs, там есть возможность получать моментально в виде файла разницу между двумя снапшотами, отсылать этот любым файл удобным способом на другую машину и там либо хранить либо применять этот снапшот в любой момент к развернутой копии файловой системы (с ней не рекомендуется работать на запись, только на чтение)
    Ответ написан
    Комментировать
  • Какие программы подойдут для резервного копирования клиентских ПК с медленной сетью и большим объемом данных?

    @rPman
    Я помню для машин на windows7 использовал bat-скрипт (он уже не подойдет для win10) который делал примерно то же самое, создавал теневую копию копируемого диска, запускал rsync, который для дубликатов на основе предыдущего копирования создавал символические ссылки.
    rsync -avh --link-dest=previous_backup/ source_directory/ new_backup_directory/

    source_directory/ - это каталог, который нужно скопировать.
    new_backup_directory/ - это каталог, в который будет создана новая резервная копия.
    previous_backup - это предыдущий каталог резервного копирования. rsync будет создавать символические ссылки на файлы в этом каталоге, если они не изменились.

    rsync можно брать как нативный виндовый так и использьзовать linux через wsl, рекомендую нативный (который на основе mingw)

    По поводу работы с этим по сети, лично я делал не стандартно, диск, на который происходило копирование подключался по сети как блочное устройство (.vhd/.vhdx), сам же файл по сети раздавался сервером.

    Делал я это потому что в моей задаче не сервер инициировал копирование, а клиент. Так же полное сканирование диска локально проводится на порядок быстрее, чем по сети. Так же работа с .vhdx благодаря монопольному доступу и штатному кешированию записи на порядок быстрее именно по сети.

    Копируя файлы с нескольких машины по очереди на один и тот же диск у меня появлялась возможность отдельным приложением сканировать диск на одинаковые файлы и делать их так же символическими ссылками (т.е. в пределах резервных копий с одной машины ссылки создавались с помощью rsync, но между машинами нет).

    Недостаток такого копирования, через год на диске, куда складываются копии, накапливаются миллионы файлов (сотни символических ссылок), если старые копии не удалять то проверка на ошибки затягивалась на часы... я помню скриптом держал десяток последних копий, еще десять ежедневных а промежуточные и старые удалял.

    p.s. что значит интерфейс управления резервным копированием?
    Ответ написан
    6 комментариев
  • Как сделать зеркальную копию сервера?

    @rPman
    на основе реального железа это можно сделать средствами windows server - https://learn.microsoft.com/ru-ru/windows-server/f...

    если используется виртуализация, с хостом на основе linux, инструментов становится больше DRBD/GFS/OCFS
    Ответ написан
    Комментировать
  • Можно ли записывать бэкап на диск, бэкап которого делается?

    @rPman
    бэкапить диск, когда с него запущена система?
    Если речь про один и тот же раздел - то это бессмысленно и опасно, так как в бакап попадут неконсистентные данные, в 99% случаев это блокируется. Если разные разделы одного и того же диска - то проблем никаких нет, только скорость понизится.

    Хранить бакапы нужно НА ДРУГОМ физическом носителе, лучше другой компьютер и в идеале, компьютер, находящийся в другом доме/городе

    p.s. Создавать резервную копию системного диска могут очень небольшое количество софта. Для windows нужно использовать shadow copy, файлы будут доступны только как файлы, т.е. загрузочную копию так не создать. Точно помню что старая версия windows backup это умела. Обычно приложения для бакапа, работающие из системы плохо работают с системными файлами windows, т.е. если в момент восстановления ты попробуешь их скопировать, можно получить незагружаемую систему (я с таким сталкивался, то ли с правами что то неверное мутили, то ли с символическими ссылками ошибки были, но это было во времена win7, осадочек остался)

    p.p.s. настоятельно рекомендую для резервного копирования использовать clonezilla, загрузившись с usb/cdrom/другого носителя, так как работает она с диском на уровне раздела (при этом поддерживает все файловые системы и позволяет пропустить копирование не занятого места, что очень экономит время)
    spoiler
    один раз acronis меня уже кинул, когда бакап, созданный старой версией приложения не мог быть развернут новой версией (различия в версиях были значительными)
    Ответ написан
    1 комментарий
  • Полный бекап VPS на внешний FTP средствами CentOS?

    @rPman
    tar + встроенное в базу данных средства резервного копирования (так как копирование файлов базы данных не гарантирует ее корректное восстановление)
    закачивать файлы на ftp можно хоть curl хоть консольным ftp да хоть скриптом на 5 строчек

    p.s. если конвертировать файловую систему vps (это возможно для виртуалок типа kvm) в btrfs то можно воспользоваться штатным инструментом инкрементального копирования на основе снапшотов (он быстрее на пару порядков, так как копируются буквально только изменения средствами файловой системы ОС а не косвенно через полный рескан, как это делают rsync)

    очень большие базы данных можно копировать, настроив master->slave репликацию (реплика и будет эта копия), при необходимости реплику можно приостанавливать, делать ее копию (тем же snapshot backup) и возобновлять работу.. в итоге интервалы между бакапами могут стать абсурдно маленькими (например минуты), Осторожно с инкрементальными бакапами, не копи их большое количество, лимитируй разумным интервалом и веди стартовое состояние на сервере хранения резервных копий, иначе к примеру храня миллион инкрементальных diff-ов можно очень долго из них восстанавливать последнее состояние
    Ответ написан
    Комментировать
  • Какой жесткий диск выбрать для бэкапов?

    @rPman
    Итак, все будет упираться в деньги!

    1. выбор железа
    * жесткие диски не надежны!
    Вероятность выхода типового десктопного диска за 5 лет где то примерно от 1% до 7%, и наибольший шанс в первый год. Самые дешевые transcend, доступные на рынке, у меня на практике показывают еще большую статистику (из 7 дисков за 6 лет, два заменил по гарантии в течении 1 года, и еще один под вопросом, он сбоил на уровне udma в логах, но проблемы скорее из-за материнки и/или кабелей)

    * твердотельные диски не подходят для хранения данных, без электричества ячейки теряют заряд и даже в идеальных условиях уже через годы можно получить проблемы (дешевые флешки за 3 года лежания в ящике померли 3 из 4 разных от 8Gb до 64Gb usb3 из midend, разные производители), у ssd есть механизмы против этого но устройство должно быть онлайн постоянно, и еще вопрос, нужно ли принудительно проводить проверку чтения чтобы контроллер заряд обновил или нет (ответ - нужно, но по другой причине ниже).

    * тебе нужен NAS с поддержкой raid (хоть какой то, любой дешевый, задача не ускорить а убрать один из сценариев смерти данных)
    чтобы хоть как то обеспечить надежность, нужно ее повышать количественно, самый простой способ - RAID 1 или 5 и 6 (остальные бессмысленны), выбирая устройства РАЗНЫХ производителей или хотя бы разных моделей, чтобы не получить одновременные проблемы от контроллера (были и такие косяки, диски одной модели во всем мире почти разом вышли из строя)

    2. При наличии возможность, разноси хранение копии в пространстве!
    Не храни яйца в одной корзине.
    Идеальный вариант, у тебя есть родня в другом городе, их бакапы ты хранишь на своем бакап-сервере, а твои бакапы хранишь у них. Это исключит сценарий пожара/землятрясения/кражи одновременно оригинальных данных и сервера бакапов.

    2.5. При наличии денег делай третью копию на онлайн сервисах хранения данных
    Этот вариант увеличивает стоимость бакапа но добавляет надежности к хранению данных и возможно увеличивает время восстановления данных (отличный пример, твой бакап у родни в соседнем городе но они 'на даче', их сервер выключен и приедут они только 'завтра')

    3. софт, выбирай сам, для mac timemachine почему нет
    ищи возможность настраивать инкрементальный бакап с возможностью восстановить выбранный бакап во времени, это нереально помогает и даже частично исключит проблему с вирусами-троянами с отложенным запуском (пример ситуации - вирус попадает в бакап для этого после заражения не активируется сразу, но активируется после восстановления)
    Регулярность бакапов настраивай как можно чаще, сколько позволяет выбранная технология (некоторые позволяют чуть ли не ежеминутно все делать, но это не mac, там файлы сканируются).
    Обязательно настраивай мониторинг здоровья архива. Не игнорируй варнинги и сообщения о проблемах. У меня на руках пример смерти raid5, рейд месяц сообщал вникуда об отвале диска и когда помер второй диск данные развалились (один из трех массивов так и не собрался, ковыряюсь все еще)

    4. проверяй работоспособность бакапа!
    Без этого вся возня бессмысленная. буквально, делай восстановление хоть на левую машину, всех данных, проверяй глазами их корректность, можно какой-нибудь софт на это натравить, но универсальных ответов нет, все от данных зависит и понятия - верные ли они, у меня был момент когда из бакапа восстанавливался битый файл - картинка, читался без проблем, просто вместо изображения - мусор, я тогда так и не понял что это такое, но полагаю если бы я делал такую проверку ранее, я бы это заметил до того как оригинальные данные были бы удалены.
    Ответ написан
    1 комментарий
  • Как правильно бэкапить файлы в Yandex Storage?

    @rPman
    Инкрементальные бакапы
    Каждый архив должен содержать только разницу между предыдущим состоянием файловой системы и текущим

    Каждый инструмент резервного копирования использует свой формат хранения такого снапшота

    Если делаешь свой, то учитывай не только новые и измененные файлы но и удаляемые. Существуют binary diff утилиты, вычисляющие приблизительную разницу между двумя бинарными файлами для экономии места в бакапе, вместо полного копирования измененного файла

    p.s. недостаток инкрементальных бакапов в том что для восстановления состояния нужно "применить снапшоты" за все время с момента первого сохраненного состояния

    решают эту проблему тем что ограничивают количество промежуточных состояний и с каждым новым модифицирют стартовое состояние, применив к нему самый старый бакап (который после этого удалят)

    p.p.s. btrfs имеет встроенные механизмы получения инкрементальных бакапов между снапшотами без сканирования всех файлов (что актуально для ОГРОМНЫХ архивов)
    Ответ написан
  • Как настроить скрипт для rsync?

    @rPman
    Не уверен по причинам проблем у тебя, скорее всего либо с правами доступа проблемы либо с настройками сети.

    Добавь сохранение логов ( 2>>errors.log >>info.log ) к вызовам tar и rsync

    Но есть совет!
    Так как ты передаешь один единственный файл - .tar архив, нет смысла использовать rsync, достаточно scp, мало того, нет смысла даже сохранять промежуточно архив у себя. Достаточно передавать архив по ssh сразу в момент его создания, а успешность доставки проверять по коду ошибки, примерно так
    tar -cvf - $BACKUPDIR |  ssh -p 55422 -i /home/pisarev/.ssh/id_rsa rsync@192.168.1.1 "cat /dev/stdin > /volume1/NetBackup/site/backup_$date.tar"
    Ответ написан
    Комментировать
  • Как грамотней настроить на обычном хостинге создание копии сайта и залив изменений?

    @rPman
    У вас должны быть какие то механизмы развертывания сайта на проде, не важно какие, хоть скрипты, хоть ansible, главное не вручную! Причем такие скрипты должны различать установку с нуля и обновление (обновление - отдельный разговор, к сожалению красиво и универсально с базами данных не получится, но стараться нужно, чтобы иметь повторяемость и тестируемость и получать хоть какие то гарантии того что процесс обновления ничего не сломает)

    Мне нравится способ создания тестового окружения через снапшоты и репликацию...
    Файлы могут попадать простым копирование (развертывание архива, rsync, набор патчей и т.п.) а база данных через поддержание онлайн реплики master->slave, на машине, где можно временно остановить slave реплику, снять снапшот с файловой системы или всей машины (например виртуализация), и поднять копию параллельно в другой сети (виртуальные машины очень красиво позволяют все это разрулить с автоматизацией).

    Этот подход позволяет поднять тестовое окружение с текущей базой данных за минуты, вне зависимости от ее размера (хоть терабайты), время развертывания скорее зависит от того как долго будет останавливаться реплика (ожидание завершения текущих операций записи)

    p.s. во время развертывания обновления, обычно сильно затрагивающего базы данных, советую держать 'рядом' предыдущую версию с возможностью оперативно откатиться, нервов и времени сбережете очень много
    Ответ написан
    Комментировать
  • Насколько правильно хранить бекапы БД на почте?

    @rPman
    Почтовый сервер это просто не очень удобное файловое хранилище, т.е. тот же самый вопрос можно задать для любого другого, поэтому если тебя устраивают условия, данные зашифрованы и т.п., то почему нет, но на практике почта очень ненадежный инструмент, сообщения могут не храниться достаточно долго, не помещаться в лимиты и прочее.

    Если говорить про выбор конкретного инструмента, то указанный backup2mail умеет только сохранять бакапы на почту, а вот восстанавливать придется самому. Когда речьидет о резервном копировании, в первую очередь вопрос, как ты будешь это восстанавливать и как ты будешь мониторить работу корректности резервных копий?
    Ответ написан
    Комментировать