Jump to content
XPEnology Community
  • 0

Воостановление Synology


lemon55

Question

В общем случился крах, неожиданно. Винту всего полгода, WD Red 2tb - 1 штука, btrfs. Комп в подписи. Есть UPS, поэтому резкие отключения исключены, да и не должны быть помехой для WD Red )))

Хрено жила там с самого начала, активность почти никакая - пробовал виртуалки, и так по мелочи. в основном юзал Plex и качал Torrent

До этого примерно месяц периодически приходили сообщения типа:

1) Произошло повреждение блоков RAID Group 1 (Basic, btrfs)

2) Некоторые файлы были повреждены, так как произошел сбой iSCSI LUN в RAID Group

Несколько раз после этого выключался. Перезагружался и предлагалась какая-то переразметка - я соглашался.

Виновник был найден - отходил SATA шнур корзины от материнки, по крайней мере я так думаю. Либо сам шлейф глючит, что маловероятно. Комп новый, почти год.

 

Потом было тихо и спокойно.

Пока не начали глючить кинохи в Plex, сначала одна , потом весь сезон, потом большая часть сериалов. Причем исключительно в Plex на LG webOs TV, любой другой вариант- все ок. Начал с ним разбираться (как раз на 1.10 обновился), через пару дней - крах.

Грешу конечно на винт, он как-то странно себя ведет - как будто работает, и через N времени останавливается. Помогает ребут и снова не надолго. В биосе режим smart array установлен.

 

Но суть не в этом.

На винте нет критичной инфы, однако хотелось бы поупражняться в восстановлении. Переустановить на новый винт я всегда успею

 

Пробовал через ubuntu-live стандартные команды btrfs - все ругаются что ФС на дисках не валидна (не brtfs). Скрины приложил, никаких лунов нету.

Собственно вопрос: можно ли восстановить и как?

Может кто сталкивался с таким?

 

Показать содержимое  

5a75b9ef5defe_.thumb.png.64cff2c81145b311899869708c51354a.png5a75ba9429082_.thumb.png.a53fad43a28c96fe5e23eda442764a93.png5a75baedb0352_.thumb.png.34d2d82aaebdc282e4fdd0140aaef9bc.png5a75c3f28ce4e_.thumb.png.1bc98a80f7f6922fb4b3aa27378dd415.png

Hide  

 

 

 

 

Edited by lemon55
Link to comment
Share on other sites

Recommended Posts

  • 0
4 минуты назад, Lordbl4 сказал:

это к чему?

 

зачем два ssd хоть якобы и плохих когда одного за глаза

 

рейды, зеркала всякие это у вас как панацея в серверах или книжек начитались правильных но не очень свежих

Link to comment
Share on other sites

  • 0
2 минуты назад, Архип сказал:

 

зачем два ssd хоть якобы и плохих когда одного за глаза

 

рейды, зеркала всякие это у вас как панацея в серверах или книжек начитались правильных но не очень свежих

 

с вами давно уже всё понятно ;-)

Link to comment
Share on other sites

  • 0



Сдохнет - выкину и добавлю диск для расширения Раздела 2.


Не получится, basic не расширяется. Это простой рэйд 1 из 1.
Только грохать и создавать рэйд, или отдельный basic.

Отправлено с моего LG-D856 через Tapatalk

Link to comment
Share on other sites

  • 0

Насколько я все это понял:
Чтобы СИСТЕМА сама была устойчивой, нужно больше 1го диска.
От каждого себе заберет по ~5гб, фактически создав софт рейд. И все это под капотом, вы никак на это повлиять не можете. Всё разделы, которые создаёт пользователь - это все пользовательские данные, в т.ч. приложения.
У ссд в данном случае может быть два плюса:
1) Если первично создаётся система на ссд - вся система туда встанет, все остальные диски будут зеркалом для неё.
2) в качестве кэш буфера для медленных дисков.
Соответственно от сюда и надо плясать:
1 ссд + 2 в зеркале (первичные критические данные) + 1>= для вторичных данных (big data - образы, фильмы и прочий тяжёлый хлам).
Хотя ссд тут почти не роляет в качестве безопасности данных, по желанию.
Зеркало я бы взял 1-2тб, больше и не надо для быстрых данных.
Остальные 3 - 4 ТБ - долгие данные.
При должном бэкапе: 1 ссд почти полностью (он все равно полупустой ) и части из зеркала + конфиги и списки файлов (фильмотеки например) все восстановится не очень болезненно. Это при полном крахе всего.

Все это имхо для среднедомашнего пользования. По крайней мере я планирую построить именно так + коллекции фильмов и прочего нужного тяжёлого контента на отдельном клауде в локалке + мега критичное дополнительно бэкапится на переносной винт.

Отправлено с моего LG-D856 через Tapatalk

Link to comment
Share on other sites

  • 0
по сути тот же, только в профиль
Пруф? Я вот что-то сомневаюсь что то же.
Jbod насколько я знаю программный рейд из более одного диска - аналог рэйд5.
А для одного диска - basic = просто базовый уровень дисков, т.е. без рейда. Т.к. все остальные опции как раз рейды.
Буду за компом - обязательно загуглю документацию.

Отправлено с моего LG-D856 через Tapatalk

Link to comment
Share on other sites

  • 0

По теме:
Грохнул рейд груп, вместе с собой у тянул и раздел. При этом система работает как ни в чем не бывало (кстати она в ext4)
Ошибка сменилась на "крах системного раздела" и стала оранжевой.
Создал с нуля раздел с проверкой ошибок диска.

Ночь простоял и опять слег с ошибкой блоков в рэйд группе. Хотя данные я не загружал.
Видимо пострадала сама системная партиция и придётся переустанавливать с нуля...

Отправлено с моего LG-D856 через Tapatalk

Link to comment
Share on other sites

  • 0
51 минуту назад, lemon55 сказал:

2) в качестве кэш буфера для медленных дисков.

Для этого нужен отдельный ssd для каждого раздела или нарезать разделы на ssd (но не уверен, нужно смотреть доки).

 

35 минут назад, lemon55 сказал:

Ошибка сменилась на "крах системного раздела" и стала оранжевой.

Это говорит о том что что-то не так в системном разделе, который в ext4, как вы его обозвали "под капотом". Перед повторной установкой советую удалить все разделы с диска в другой системе, форматнуть и проверить на наличие ошибок, а потом уже ставить хрень на этот диск с нуля.

Link to comment
Share on other sites

  • 0
1 час назад, Olegin сказал:

Это говорит о том что что-то не так в системном разделе, который в ext4, как вы его обозвали "под капотом". Перед повторной установкой советую удалить все разделы с диска в другой системе, форматнуть и проверить на наличие ошибок, а потом уже ставить хрень на этот диск с нуля.

да это все понятно.

Вопрос в другом, собственно для этого я и создал тему:

Система такого уровня, тем более NAS, должна содержать систему базовой диагностики (что мы и видим) и восстановления. Тем более что мы говорим не о простом фат32, а о более устойчивых фс типа ext4 & brtfs, специально использующихся в NASах.

Даже с чисто практической точки зрения такой NAS должен быть самодостотаточен на базовом уровне: пересобрать рейд, проверить/реиндексировать фс и т.д.

А если у меня нет компа чтоб диск подключить, а если нету места чтобы все скопировать? По идее включил и все! :) в идеале конечно

Понятно что денег все хотят, и детальным восстановлением инфы будут заниматься совсем другие личности, но все же. Даже винда содержит базовые инструменты. А линух и подавно.

Так вот сдается мне что там куча синовских пакетов в самой системе, должно же быть для восстановления хоть что-нибудь? Это я и пытаюсь выяснить.

Грохнуть и переустановить я всегда успею.

Link to comment
Share on other sites

  • 0
2 часа назад, lemon55 сказал:
23 часа назад, Kizilkum сказал:
по сути тот же, только в профиль

Пруф? Я вот что-то сомневаюсь что то же.

Хм, похоже Kizilkum отчасти прав - нагуглил интересный тред, JBOD не JBOD, но таки рейд.

последний пост - похоже как раз мой случай. однако интересную мысль высказал товарищ Siroc-co: если установится и вытащить диск... 

 

Link to comment
Share on other sites

  • 0

Как я уже писал - создал рэйд+раздел с нуля.

После этого смог:

1) обновить систему

2) восстановить пакеты из центра пакетов

И как бонус п.2 - настройки некоторых пакетов тоже восстановились! О_о

Например Hyper Backup

Link to comment
Share on other sites

  • 0
11 час назад, lemon55 сказал:

И как бонус п.2 - настройки некоторых пакетов тоже восстановились!

При восстановлении конфигурации из *.dss?

 

12 часа назад, lemon55 сказал:

Так вот сдается мне что там куча синовских пакетов в самой системе, должно же быть для восстановления хоть что-нибудь?

Видимо не ваш случай (вы писали, что отходил разъем сата) и система была только на одном диске. Я начинал еще с пятой версии и на древних винтах (было 2 десятилетних грина и сигейт, который до сих пор стоит, но периодически глючит), грины со временем начали писать об ошибках, система как-то пыталась выжить и восстанавливаться, закончилось тем, что один за другим они сдохли в усмерть (до щелчков головок).  Потом купил пару новых - уже год как без проблем, только один раз после обновления не завелась - сдохла загрузочная флешка.

Link to comment
Share on other sites

  • 0
14 часа назад, lemon55 сказал:

Хм, похоже Kizilkum отчасти прав - нагуглил интересный тред, JBOD не JBOD, но таки рейд.

Все немного сложнее, вот что смонтировано в моей хрени...  

~$ /bin/df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/md0        2.3G 1021M  1.2G  47% /
none            7.9G     0  7.9G   0% /dev
/tmp            7.9G  752K  7.9G   1% /tmp
/run            7.9G  3.7M  7.9G   1% /run
/dev/shm        7.9G   12K  7.9G   1% /dev/shm
none            4.0K     0  4.0K   0% /sys/fs/cgroup
cgmfs           100K     0  100K   0% /run/cgmanager/fs
/dev/md2        3.6T  2.3T  1.4T  63% /volume1
/dev/md4        443G   53G  390G  12% /volume3
/dev/md3        3.5T  737G  2.8T  21% /volume2
tmpfs           1.0T  6.0G 1018G   1% /dev/virtualization

Hide  
Link to comment
Share on other sites

  • 0

lemon55, блин, чего-то совсем из головы вылетело, сорри. Можно было попробовать восстановить миграцией с 3615 на 3617 или наоборот, вставив флешку с загрузчиком или заменив образ загрузчика в виртуалке от другой версии DSM. Тогда бы только разделы под ось заново форматнулись и поставилась новая система. Может кому на будущее пригодится.

Link to comment
Share on other sites

  • 0
В 06.02.2018 в 12:59, Olegin сказал:

При восстановлении конфигурации из *.dss?

в том то и дело что нет - как я уже говорил, система продолжала работать. откуда инфа подтянулась - хбз

 

В 06.02.2018 в 15:28, Olegin сказал:

Все немного сложнее, вот что смонтировано в моей хрени...

ну да, md* и есть массив

 

В 06.02.2018 в 18:26, Olegin сказал:

Можно было попробовать восстановить миграцией с 3615 на 3617 или наоборот

да, классная идея.

однако что-то пошло не так, с флэшки 3615 мне предложил просто поставить заново. При этом изначально не хотел видеть винт, через минутку все увидел и воодрузился с нуля. Жаль.. но терять уже нечего было ))

Link to comment
Share on other sites

  • 0
22 минуты назад, lemon55 сказал:
В 06.02.2018 в 11:28, Olegin сказал:

Все немного сложнее, вот что смонтировано в моей хрени...

ну да, md* и есть массив

Фишка в том, что md0 - это системный раздел, md1 - это рейд 1, состоящий из 2х зеркальных дисков, md2 и md3 - это 2 разных диска в basic.

Link to comment
Share on other sites

  • 0
14 hours ago, Olegin said:

Фишка в том, что md0 - это системный раздел, md1 - это рейд 1, состоящий из 2х зеркальных дисков, md2 и md3 - это 2 разных диска в basic.

Обычно md0, md1, md2 это разные разделы (partitions) одного и того-же рэйда а не тип.

Link to comment
Share on other sites

  • 0

Так и будет, если в системе кроме 1 рейда ничего нет, а если несколько дисков в разных разделах, то вот:

/dev/md0        2.3G 1021M  1.2G  47% /
/dev/md2        3.6T  2.3T  1.4T  63% /volume1
/dev/md3        3.5T  737G  2.8T  21% /volume2
/dev/md4        443G   53G  390G  12% /volume3

 

Link to comment
Share on other sites

  • 0
20 часов назад, Olegin сказал:

Фишка в том, что md0 - это системный раздел, md1 - это рейд 1, состоящий из 2х зеркальных дисков, md2 и md3 - это 2 разных диска в basic.

про md1 не совсем точно, это swap

DSM использует для хранения своих данных место на дисках. Для этого он создает, в процессе установки, два primary раздела на каждом диске и объединяет их в RAID массивы с названиями md0 и md1. Первый используется для файлов системы, второй для swap. Их наличие можно проверить:

root@nas:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid1 sdb3[0]
      2925444544 blocks super 1.2 [1/1] [U]

md2 : active raid1 sda3[0]
      239376512 blocks super 1.2 [1/1] [U]

md1 : active raid1 sda2[0] sdb2[1]
      2097088 blocks [12/2] [UU__________]

md0 : active raid1 sda1[0] sdb1[1]
      2490176 blocks [12/2] [UU__________]

unused devices: <none>

речь о системе из двух дисков:

root@nas:~# df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/md0        2.3G  943M  1.3G  43% /
none            3.8G  4.0K  3.8G   1% /dev
/tmp            3.8G  1.5M  3.8G   1% /tmp
/run            3.8G  3.4M  3.8G   1% /run
/dev/shm        3.8G  452K  3.8G   1% /dev/shm
none            4.0K     0  4.0K   0% /sys/fs/cgroup
cgmfs           100K     0  100K   0% /run/cgmanager/fs
/dev/md2        225G   40G  186G  18% /volume1
/dev/md3        2.7T  916G  1.8T  34% /volume2
none            225G   40G  186G  18% /volume1/@docker/aufs/mnt/109...f80
shm              64M     0   64M   0% /volume1/@docker/containers/e1c...e48/shm
none            225G   40G  186G  18% /volume1/@docker/aufs/mnt/3ba...1d4
shm              64M     0   64M   0% /volume1/@docker/containers/d6d...a45/shm

 

Edited by Архип
Link to comment
Share on other sites

  • 0

Насчет поломки оказалось все банально - шнур питания molex разошелся (мама-папа). Сата (кстати mini-SAS) шнур оказался не причем))

А вот восстановление меня разочаровало: восстановились настройки, и то далеко не все. и слетел синовский пуш, кароч печаль..

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Answer this question...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...