Jump to content
XPEnology Community

Синхронизация папок Basic-Basic


Recommended Posts

Второй день ищу решение и пока как-то негусто.

Итак, есть два диска. В системе созданы как два Basic раздела.

Есть ценные данные, есть не ценные.

Для ценных хочется сделать зеркалирование между двумя дисками (аля программный Raid1).

Не ценные данные заполняют оба раздела равномерно. Делать Raid 1 для не ценных данных смысла делать не вижу, их всегда можно восстановить а терять под них два объема как-то расточтительно.

 

Но, блин, я не вижу вариантов зеркалирования. Hyper Backup делает бекап в большой файл. Rsync позволяет скопировать только на другой источник.

Snaphot Replication делает что-то похожее (можно сделать копию на другой раздел), но я что-то сомневаюсь, что снимок работает без оригинальных файлов. И если я правильно понимаю, это не инструмент именно резервного копирования.

 

В общем, я близок к тому чтобы плюнуть и накатить общий Raid 1.

Edited by Nfly79
Link to comment
Share on other sites

Только что, H_U_L_K сказал:

Hyper backup - создать - задача резервирования данных - в локальную папку и на usb.

Далее разберетесь.

 

Ээээ, разве он не делает один большой файл? Мне бы хотелось в результате чистое копирование/синхронизацию.

Link to comment
Share on other sites

47 минут назад, Nfly79 сказал:

 

Ээээ, разве он не делает один большой файл? Мне бы хотелось в результате чистое копирование/синхронизацию.

Учите мат часть, пригодится 😂

Из справки DSM:

Цитата

Hyper Backup поддерживает инкрементное резервирование на уровне блоков, чтобы после первого резервирования можно было зарезервировать только измененные/добавленные блоки данных файла, а не целый файл. Выполнение инкрементного резервирования на уровне файлов с адаптацией традиционных решений для резервного копирования и некоторых других служб резервирования NAS позволяет значительно сократить использование хранилища.

Большой файл, это, видимо, в вашем понятии первое резервное копирование...

Link to comment
Share on other sites

29 минут назад, Olegin сказал:

Большой файл, это, видимо, в вашем понятии первое резервное копирование...

Там же есть параметры что файлы могут быть типа как зашифрованы, и копию просто так просмотреть не получиться. Это будет набор специфических файлов одинакового обьема.

 

Link to comment
Share on other sites

36 минут назад, Olegin сказал:

Учите мат часть, пригодится 😂

Из справки DSM:

Большой файл, это, видимо, в вашем понятии первое резервное копирование...

 

Я прекрасно знаю, что такое инкрементарный бэкап. И что такое первая копия и что такое файлы с изменениями. Еще я знаю сколько времени занимает восстановление из такого бекапа, когда ищутся изменения по копиям. И еще я знаю о проблемах, которые бывают с такими бекапами.

В своем вопросе я спрашивал о зеркалировании/синхронизации папок. Чтобы на обоих винтах был одинаковый набор файлов.

И справку я прочел первым делом. 

Edited by Nfly79
Link to comment
Share on other sites

6 минут назад, H_U_L_K сказал:

Там же есть параметры что файлы могут быть типа как зашифрованы, и копию просто так просмотреть не получиться. Это будет набор специфических файлов одинакового обьема.

 

Но это же не зеркалирование/синхронизация. Это тот же набор архивов, из которого в случае чего потом надо выковыривать нужные данные. Сюда добавляется проблема регулярной проверки целостности бекапа, чего хотелось бы избежать. 

Т.е. ситуация как я себе ее и предсталял. Простой синхронизации папок не существует.

Edited by Nfly79
Link to comment
Share on other sites

Не очень понимаю задачу, у меня настроено вот так в Hyper Backup:

image.thumb.png.3b2f6fab67fb6c8e909978fd2f8c13a7.png

Настраивал очень давно, но смысл такой: из папки общего доступа Archive на одном диске, всё раз в неделю копируется в подпапку Archive общей папки Backup на другом диске. В папке Backup\Archive всё лежит в виде файлов и папок так же как и в изначальной, то есть вроде ничего не надо восстанавливать в случае потери первой папки...

Но это не совсем конечно зеркалирование.

Link to comment
Share on other sites

1 час назад, TeleDDim сказал:

Настраивал очень давно, но смысл такой: из папки общего доступа Archive на одном диске, всё раз в неделю копируется в подпапку Archive общей папки Backup на другом диске. В папке Backup\Archive всё лежит в виде файлов и папок так же как и в изначальной, то есть вроде ничего не надо восстанавливать в случае потери первой папки...

Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл

Link to comment
Share on other sites

7 часов назад, H_U_L_K сказал:

Hyper backup - создать - задача резервирования данных - в локальную папку и на usb.

Далее разберетесь.

Вы вот так пробовали делать?

У меня настроено бекап и регулярная проверка соответствия оригиналу.

При чем если я в оригинальной папке удаляю файлы, то на бекапе они остаются (хотя это можно не делать).

Link to comment
Share on other sites

3 hours ago, Nfly79 said:

Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл

Есть два вида бэкапов. Один новый формат с базой данных и своим собственным способом хранения. Другой (legacy rsync) старый формат (в конце списка), который просто синхронизирует файлы. Вам подойдет второй.

Link to comment
Share on other sites

Только что, toleeck сказал:

скрипт сделайте, который будет копировать ваши данные из одной папки в другую и запускайте его через планировщик каждый день/час

 

Хм, мысль. Спасибо. Как в этом случае копировать только изменения? Пропуском одинаковых файлов? 

Link to comment
Share on other sites

15 hours ago, Nfly79 said:

Вы не могли бы пояснить, как именно вы это сделали? Потому что у меня в данный момент получается только единый файл

Делал давно, но судя по всему через вот это:

image.thumb.png.5ef896c042079ac148c8713f4929c2ca.png

Если смотреть с mc то выглядит так:

image.thumb.png.bd2ee82fbfb38b8618895b7a20b4d6c9.png

image.png.ee504f30d2c98044523e16fde1c5af03.png

 

 

Edited by TeleDDim
  • Like 1
Link to comment
Share on other sites

1 час назад, TeleDDim сказал:

Делал давно, но судя по всему через вот это:

Спасибо, именно оно. Я тоже путем перебора вариантов пришел туда же.

Эксперимент показал, что даже если я меняю структуру папок в оригинальном расположении, при выполнении задания структура в конечной папке тоже меняется . То что нужно!

Link to comment
Share on other sites

6 часов назад, Nfly79 сказал:

Спасибо, именно оно. Я тоже путем перебора вариантов пришел туда же.

Эксперимент показал, что даже если я меняю структуру папок в оригинальном расположении, при выполнении задания структура в конечной папке тоже меняется . То что нужно!

Я же Вам еще во втором посте сказал что это реализуемо. Всё зависит от настроек.

И частота зеркалирования зависит от хотелки, хоть каждые 10 минут будет проверять соответствие.

Link to comment
Share on other sites

14 часа назад, H_U_L_K сказал:

Я же Вам еще во втором посте сказал что это реализуемо. Всё зависит от настроек.

 

Вы правы. Просто предложенный вами вариант делал большой файл. Нужен именно пункт с фразой "одна версия" в скобках. Тогда сохраняется структура.

 

 

Link to comment
Share on other sites

20 минут назад, Nfly79 сказал:

делал большой файл

Большой файл, как вы его называете, есть не что иное как каталог в котором лежат базы в формате sql lite. Вся прелесть в том, что производится инкрементное бэкапирование и можно будет восстановить данные за любой промежуток времени (настраивается) от часа до недель. Если открывать этот каталог в файл стейшн, то можно провалиться внутрь и восстановить все вплоть до конечного файла. Не знаю почему у вас такое предубеждение к этому способу.

Скрытый текст

823990294_.thumb.png.e7b3f079e80607b1c4cc9adf65249ea7.png

Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда.

Я использую 2 одинаковых диска в зеркале для особо важных данных + их бэкап на 3й диск. Важные данные валяются на 3м диске + бэкап на 4й.

  • Like 1
Link to comment
Share on other sites

2 часа назад, Olegin сказал:

Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда.

 

Это интересная модель, спасибо за идею. Но я думал использовать для этих целей снапшоты. Имея опыт работы с инкрементарными бекапами, я просто помню, сколько времени занимает восстановление текущей версии из кучи файлов. Возможно в Hyper Backup с  sql lite это работает быстрее, но я пока не имел с ним дела. Это первый момент. Второй - имея суммарный бекап возникает регулярная задача в проверки его целостности. Потому как уже нарывался на битый бекап.

 

Сейчас моя логика такова: имеются важные данные на Volume 1. Имеем два сценария проблем и их решения:

 

1. Физически умер Volume 1. В этом случае есть зеркало на Volume 2 (доступ к которому у всех пользователей есть только на чтение, на всякий случай). Восстановить такие данные нет никаких проблем - они там в таком же виде как на Volume 2. 

 

2. Пользователь по глупости напортачил с файлами в Volume 1. В этом случае через снапшоты восстанавливается нужная версия файлов. Которая первым сценарием восстанавливает структуру данных на Volume 2. Ну и в случае минимальных изменений в файлах, снапшоты не занимают место.

 

Но вполне возможно, что в моих рассуждениях есть огромная логическая дыра :) 

Edited by Nfly79
Link to comment
Share on other sites

5 часов назад, Olegin сказал:

Если просто использовать единичное бекапирование каталогов, то можно нарваться на вариант, когда случайно удаляется что-то важное, а бэкап успеет сработать до того, как из него успели восстановить, в этом случае информация потеряется навсегда.

Я использую 2 одинаковых диска в зеркале для особо важных данных + их бэкап на 3й диск. Важные данные валяются на 3м диске + бэкап на 4й.

В настройках того же Hyper Backup есть функция что фалы, которые уже забекаплены, не удаляются. А только дописываются новые из оригинального источника.

Link to comment
Share on other sites

5 часов назад, Nfly79 сказал:

Но вполне возможно, что в моих рассуждениях есть огромная логическая дыра :) 

Смотря что использовать и как для снапшотов, есть вероятность того, что каждый снимок будет по размеру равен исходному материалу. Снимки обычно используются для сохранения виртуалок, а не данных. Во всяком случае, в хрени этот механизм реализован в vmm, может еще где-то, но мне об этом неизвестно.

2 часа назад, H_U_L_K сказал:

В настройках того же Hyper Backup есть функция что фалы, которые уже забекаплены, не удаляются. А только дописываются новые из оригинального источника. 

Смотря каковы цели бэкапа, так и помойку можно получить 😂

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...