Nfly79 Posted March 25, 2019 Share #1 Posted March 25, 2019 (edited) Второй день ищу решение и пока как-то негусто. Итак, есть два диска. В системе созданы как два Basic раздела. Есть ценные данные, есть не ценные. Для ценных хочется сделать зеркалирование между двумя дисками (аля программный Raid1). Не ценные данные заполняют оба раздела равномерно. Делать Raid 1 для не ценных данных смысла делать не вижу, их всегда можно восстановить а терять под них два объема как-то расточтительно. Но, блин, я не вижу вариантов зеркалирования. Hyper Backup делает бекап в большой файл. Rsync позволяет скопировать только на другой источник. Snaphot Replication делает что-то похожее (можно сделать копию на другой раздел), но я что-то сомневаюсь, что снимок работает без оригинальных файлов. И если я правильно понимаю, это не инструмент именно резервного копирования. В общем, я близок к тому чтобы плюнуть и накатить общий Raid 1. Edited March 25, 2019 by Nfly79 Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 25, 2019 Share #2 Posted March 25, 2019 Hyper backup - создать - задача резервирования данных - в локальную папку и на usb. Далее разберетесь. Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 25, 2019 Author Share #3 Posted March 25, 2019 Только что, H_U_L_K сказал: Hyper backup - создать - задача резервирования данных - в локальную папку и на usb. Далее разберетесь. Ээээ, разве он не делает один большой файл? Мне бы хотелось в результате чистое копирование/синхронизацию. Quote Link to comment Share on other sites More sharing options...
Olegin Posted March 25, 2019 Share #4 Posted March 25, 2019 47 минут назад, Nfly79 сказал: Ээээ, разве он не делает один большой файл? Мне бы хотелось в результате чистое копирование/синхронизацию. Учите мат часть, пригодится 😂 Из справки DSM: Цитата Hyper Backup поддерживает инкрементное резервирование на уровне блоков, чтобы после первого резервирования можно было зарезервировать только измененные/добавленные блоки данных файла, а не целый файл. Выполнение инкрементного резервирования на уровне файлов с адаптацией традиционных решений для резервного копирования и некоторых других служб резервирования NAS позволяет значительно сократить использование хранилища. Большой файл, это, видимо, в вашем понятии первое резервное копирование... Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 25, 2019 Share #5 Posted March 25, 2019 29 минут назад, Olegin сказал: Большой файл, это, видимо, в вашем понятии первое резервное копирование... Там же есть параметры что файлы могут быть типа как зашифрованы, и копию просто так просмотреть не получиться. Это будет набор специфических файлов одинакового обьема. Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 25, 2019 Author Share #6 Posted March 25, 2019 (edited) 36 минут назад, Olegin сказал: Учите мат часть, пригодится 😂 Из справки DSM: Большой файл, это, видимо, в вашем понятии первое резервное копирование... Я прекрасно знаю, что такое инкрементарный бэкап. И что такое первая копия и что такое файлы с изменениями. Еще я знаю сколько времени занимает восстановление из такого бекапа, когда ищутся изменения по копиям. И еще я знаю о проблемах, которые бывают с такими бекапами. В своем вопросе я спрашивал о зеркалировании/синхронизации папок. Чтобы на обоих винтах был одинаковый набор файлов. И справку я прочел первым делом. Edited March 25, 2019 by Nfly79 Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 25, 2019 Author Share #7 Posted March 25, 2019 (edited) 6 минут назад, H_U_L_K сказал: Там же есть параметры что файлы могут быть типа как зашифрованы, и копию просто так просмотреть не получиться. Это будет набор специфических файлов одинакового обьема. Но это же не зеркалирование/синхронизация. Это тот же набор архивов, из которого в случае чего потом надо выковыривать нужные данные. Сюда добавляется проблема регулярной проверки целостности бекапа, чего хотелось бы избежать. Т.е. ситуация как я себе ее и предсталял. Простой синхронизации папок не существует. Edited March 25, 2019 by Nfly79 Quote Link to comment Share on other sites More sharing options...
TeleDDim Posted March 25, 2019 Share #8 Posted March 25, 2019 Не очень понимаю задачу, у меня настроено вот так в Hyper Backup: Настраивал очень давно, но смысл такой: из папки общего доступа Archive на одном диске, всё раз в неделю копируется в подпапку Archive общей папки Backup на другом диске. В папке Backup\Archive всё лежит в виде файлов и папок так же как и в изначальной, то есть вроде ничего не надо восстанавливать в случае потери первой папки... Но это не совсем конечно зеркалирование. Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 25, 2019 Author Share #9 Posted March 25, 2019 1 час назад, TeleDDim сказал: Настраивал очень давно, но смысл такой: из папки общего доступа Archive на одном диске, всё раз в неделю копируется в подпапку Archive общей папки Backup на другом диске. В папке Backup\Archive всё лежит в виде файлов и папок так же как и в изначальной, то есть вроде ничего не надо восстанавливать в случае потери первой папки... Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 25, 2019 Share #10 Posted March 25, 2019 7 часов назад, H_U_L_K сказал: Hyper backup - создать - задача резервирования данных - в локальную папку и на usb. Далее разберетесь. Вы вот так пробовали делать? У меня настроено бекап и регулярная проверка соответствия оригиналу. При чем если я в оригинальной папке удаляю файлы, то на бекапе они остаются (хотя это можно не делать). Quote Link to comment Share on other sites More sharing options...
XPEH Posted March 25, 2019 Share #11 Posted March 25, 2019 3 hours ago, Nfly79 said: Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл Есть два вида бэкапов. Один новый формат с базой данных и своим собственным способом хранения. Другой (legacy rsync) старый формат (в конце списка), который просто синхронизирует файлы. Вам подойдет второй. Quote Link to comment Share on other sites More sharing options...
toleeck Posted March 26, 2019 Share #12 Posted March 26, 2019 скрипт сделайте, который будет копировать ваши данные из одной папки в другую и запускайте его через планировщик каждый день/час 1 Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 26, 2019 Author Share #13 Posted March 26, 2019 Только что, toleeck сказал: скрипт сделайте, который будет копировать ваши данные из одной папки в другую и запускайте его через планировщик каждый день/час Хм, мысль. Спасибо. Как в этом случае копировать только изменения? Пропуском одинаковых файлов? Quote Link to comment Share on other sites More sharing options...
TeleDDim Posted March 26, 2019 Share #14 Posted March 26, 2019 (edited) 15 hours ago, Nfly79 said: Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл Делал давно, но судя по всему через вот это: Если смотреть с mc то выглядит так: Edited March 26, 2019 by TeleDDim 1 Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 26, 2019 Author Share #15 Posted March 26, 2019 1 час назад, TeleDDim сказал: Делал давно, но судя по всему через вот это: Спасибо, именно оно. Я тоже путем перебора вариантов пришел туда же. Эксперимент показал, что даже если я меняю структуру папок в оригинальном расположении, при выполнении задания структура в конечной папке тоже меняется . То что нужно! Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 26, 2019 Share #16 Posted March 26, 2019 6 часов назад, Nfly79 сказал: Спасибо, именно оно. Я тоже путем перебора вариантов пришел туда же. Эксперимент показал, что даже если я меняю структуру папок в оригинальном расположении, при выполнении задания структура в конечной папке тоже меняется . То что нужно! Я же Вам еще во втором посте сказал что это реализуемо. Всё зависит от настроек. И частота зеркалирования зависит от хотелки, хоть каждые 10 минут будет проверять соответствие. Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 26, 2019 Share #17 Posted March 26, 2019 У меня в бекапе все файлы и структура папок сохранены как в оригинале. Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 27, 2019 Author Share #18 Posted March 27, 2019 14 часа назад, H_U_L_K сказал: Я же Вам еще во втором посте сказал что это реализуемо. Всё зависит от настроек. Вы правы. Просто предложенный вами вариант делал большой файл. Нужен именно пункт с фразой "одна версия" в скобках. Тогда сохраняется структура. Quote Link to comment Share on other sites More sharing options...
Olegin Posted March 27, 2019 Share #19 Posted March 27, 2019 20 минут назад, Nfly79 сказал: делал большой файл Большой файл, как вы его называете, есть не что иное как каталог в котором лежат базы в формате sql lite. Вся прелесть в том, что производится инкрементное бэкапирование и можно будет восстановить данные за любой промежуток времени (настраивается) от часа до недель. Если открывать этот каталог в файл стейшн, то можно провалиться внутрь и восстановить все вплоть до конечного файла. Не знаю почему у вас такое предубеждение к этому способу. Скрытый текст Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда. Я использую 2 одинаковых диска в зеркале для особо важных данных + их бэкап на 3й диск. Важные данные валяются на 3м диске + бэкап на 4й. 1 Quote Link to comment Share on other sites More sharing options...
Nfly79 Posted March 27, 2019 Author Share #20 Posted March 27, 2019 (edited) 2 часа назад, Olegin сказал: Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда. Это интересная модель, спасибо за идею. Но я думал использовать для этих целей снапшоты. Имея опыт работы с инкрементарными бекапами, я просто помню, сколько времени занимает восстановление текущей версии из кучи файлов. Возможно в Hyper Backup с sql lite это работает быстрее, но я пока не имел с ним дела. Это первый момент. Второй - имея суммарный бекап возникает регулярная задача в проверки его целостности. Потому как уже нарывался на битый бекап. Сейчас моя логика такова: имеются важные данные на Volume 1. Имеем два сценария проблем и их решения: 1. Физически умер Volume 1. В этом случае есть зеркало на Volume 2 (доступ к которому у всех пользователей есть только на чтение, на всякий случай). Восстановить такие данные нет никаких проблем - они там в таком же виде как на Volume 2. 2. Пользователь по глупости напортачил с файлами в Volume 1. В этом случае через снапшоты восстанавливается нужная версия файлов. Которая первым сценарием восстанавливает структуру данных на Volume 2. Ну и в случае минимальных изменений в файлах, снапшоты не занимают место. Но вполне возможно, что в моих рассуждениях есть огромная логическая дыра Edited March 27, 2019 by Nfly79 Quote Link to comment Share on other sites More sharing options...
H_U_L_K Posted March 27, 2019 Share #21 Posted March 27, 2019 5 часов назад, Olegin сказал: Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда. Я использую 2 одинаковых диска в зеркале для особо важных данных + их бэкап на 3й диск. Важные данные валяются на 3м диске + бэкап на 4й. В настройках того же Hyper Backup есть функция что фалы, которые уже забекаплены, не удаляются. А только дописываются новые из оригинального источника. Quote Link to comment Share on other sites More sharing options...
Olegin Posted March 27, 2019 Share #22 Posted March 27, 2019 5 часов назад, Nfly79 сказал: Но вполне возможно, что в моих рассуждениях есть огромная логическая дыра Смотря что использовать и как для снапшотов, есть вероятность того, что каждый снимок будет по размеру равен исходному материалу. Снимки обычно используются для сохранения виртуалок, а не данных. Во всяком случае, в хрени этот механизм реализован в vmm, может еще где-то, но мне об этом неизвестно. 2 часа назад, H_U_L_K сказал: В настройках того же Hyper Backup есть функция что фалы, которые уже забекаплены, не удаляются. А только дописываются новые из оригинального источника. Смотря каковы цели бэкапа, так и помойку можно получить 😂 Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.