coupure de courant, DS3615xs en vrac ...


Recommended Posts

Bonjour à tous,

 

Je suis nouveau ici ... heureux possesseur jusque là d'un DS3615xs Xpeno, j'ai monté mon NAS progressivement et après une coupure de courant j'ai perdu l'accès !

J'ai essayé d'être le plus précis possible :

 

1°) structure physique :

CM : Gigabyte UEFI dualbios B75N de 2013. (Bios Rev F4).

- une clé USB 2.0 de BOOT Xpeno en 5.644

- un disque SSD 128 Go "système"

- une carte multi SATA (12 ports) en PCI Express 4

- 13 disques WD-4 To RED NAS

 

10 disques branchés sur la carte, et 3 disques sur les ports SATA de la carte mère.

 

Boot on : UEFI first, Legacy ensuite.

SATA Mode = AHCI.

xHCI enabled

 

 

2°) structure logique :

avant CRASH : DSM 5.644 upd8 (je crois !!) sans backup de la config  :-(

NB : Je suis resté dans cette version car le vendeur m'a dit que les versions supérieurs n'étaient pas gérés par le système physique.

 

* NAS Xpenology DSM :  DSM_DS3615xs_v5.644_5644.PAT   (pas d'update 5 ou 8 de réalisé, après la reinstall je suis resté "de base" 5.644, téléchargement officiel)

* Tous les 13 disques sont en SHR dans un seul volume.

 

3°) Faits accomplis :

- Après reinstall de l'OS sur un nouveau disque SSD (je croyais que la partition était HS ...)

- le volume 2 apparaît logiquement EN PANNE, car seuls 9 des 13 disques sont vus.

- sur ces 9 devices détectés, seuls 2 sont fonctionnels, les 7 autres sont noté "ECHEC DE PARTITION"

- j'ai testé unitairement les 13 disques durs sont bien alimentés en tension électrique.

- je m'aperçois qu'une des 2 alimentations électriques de l'ensemble des disques est FAIBLARDE ... je pense que la tension n'est plus suffisante en bout de chaîne pour les derniers disques à alimenter.

- j'installe 2 nouvelles alimentations électriques.

 

J'ai maintenant A NOUVEAU les 13 disques dont 11 en "ECHEC DE PARTITION" et le volume inutilisable mais pas de possibilité de correction ... ?

Je ne dirai qu'une chose : HELP  :-)

Merci de vos lumières ^^

 

Edited by crob-37
Link to post
Share on other sites
  • 2 weeks later...

Bon, un petit UP svp j'ai besoin de vous :-) ...

 

RECAPITULATIF :

Après une panne de courant, NAS inaccessible. Je réinstalle le système sur un autre disque SSD et hop.

Sauf que :

 

* Quand je branche tous les disques et que je démarre le DS3615xs, j'ai un premier message en me connectant en HTTP :

"Votre système doit être migré"

Je remets le fichier PAT correspondant à ma version, il s'installe et redémarre tout seul.

Au redémarrage, la console XPEnoboot affiche les informations classiques, puis les lignes "updating file ..." jusqu'à la phase POST INIT.

 

==================== start udevd =====================

System is going to reboot.

syslog-ng stop/waiting

stop : unknown instance : system is not in ups safe mode

kill-all-process start/running, process 19911

umount root [1]

crond[19963] : crond (Busybox 1.16.1) started log level 8

umount : cannot umount /: device or resource busy

umount fail, killall again

 

NAS login : crond[20036]

umount root[2]

umount : cannot umount /: device or resource busy ...

 

puis il reboote tout seul et me redemande sans cesse une MIGRATION.

 

le cycle infernal.

 

 

 

* Quand je ne branche pas tous les disques, le NAS est accessible en HTTP et me notifie simplement "VOLUME 2 : PANNE" (car il n'a pas tous les disques)

Je ne suis pas plus avancé, le volume reste logiquement inaccessible, mais au moins j'ai accès au NAS !

 

QUE FAIRE ?

 

 

 

 

Link to post
Share on other sites

Salut


voici plusieurs pistes

as-tu essayé de refaire la clé USB de boot? Elle a peut-être pris un coup électrique lors de la coupure.

- as-tu vérifier la pile de ton BIOS? Il arrive sur les vieux serveurs tj up h24 qu’à une coupure de courant si la pile est morte alors le bios est réinitialisé à ses paramètres par défaut et donc plus de AHCI et autres pré-requis. Ça me fait penser évite le BIOS UEFI sur ces vieilles version de DSM, essaie de repasser en legacy.

- as-tu essayé une réinstallation de DSM depuis le menu de boot du loader ?


ton histoire d’alim m’interpelle, comment as-tu fait pour installer 2 alim? C’est un serveur rackable ?

 

il faut arrêter de penser comme Windows, DSM ne s’installe pas sur un disque à part entier, mais sur TOUS les disques dans une partition spécifique. L’intérêt c’est que si un disque crash, le NAS peut continuer de démarrer.

Link to post
Share on other sites

Salut

Après tes conseils, je n'arrive toujours pas à accéder aux disques via le SYNO.

J'ai donc décidé de tester ceci  "recover Syno Diskstation data using a PC"

https://kb.synology.com/en-uk/DSM/tutorial/How_can_I_recover_data_from_my_DiskStation_using_a_PC

Tout fonctionne jusqu'au moment de monter le 1er disque.

 

J'ai donc monté les 13 disques de 4 To sur un PC avec Ubunto 20 avec espoir de récupérer chaque disque lisible sur chaque mountpoint.

Pour faire court,

a) il faut créer 13 répertoires qui vont servir de points de montage des 13 disques :

cd /home/crob/recover

mkdir 1

mkdir 2

...

mkdir 13

 

b) utiliser MDADM pour reconstituer le bloc des disques

mdadm -Asf && vgchange -ay

 

c) monter chaque disque

$ mount ${device_path} ${mount_point} -o ro

 

chez moi ça fait :

mount  /dev/dm-1  /home/crob/recover/1  -o ro

 

mais j'ai le message

Mount: unknown filesystem type ‘linux_raid_member’

 

En furetant je ne vois que 3 possibilités :

1-utiliser l'outil TestDisk (sick!)

2-mdadm --assemble --scan et voir ce qui se passe en essayant de monter les disques en LOOP

3- ne rien risquer et tenter autre chose ... mais quoi donc ?

 

 

Link to post
Share on other sites

là désolé je ne sais pas 😕

 

J'avais déjà tenté par le passer de remonter mon RAID5 sur 3 disques sur Windows à l'aide d'un logiciel, j'avais galéré comme pas possible mais je m'en étais sorti. Le truc c'est que l'outil en question était payant... (et je ne me rappelle plus du nom)

Link to post
Share on other sites

Bonjour,

Sur le fait de créer 13 points de montage, j'ai des doutes...

Il en faudra plutôt un par partitions existantes sur le groupe raid au final.

Je ne sais pas s'il existe plusieurs groupes raid dans l'ensemble des 13 disques, mais (je prends la discussion en cours) il faut déjà savoir si c'est du raid SHR (ou SHR2) ou simplement du raid 5 ou 6.

Dans le cas du SHR, on a besoin de LVM (les commandes vg*) pour recréer les volumes.

Le scan des disques par mdadm est la meilleure chose à faire pour le moment, pour voir quelle est la structure du raid.

 

La procédure donnée dans le lien me semble sans erreur (ce qu'on peut espérer de la part de Synology tout de même) mais je n'ai pas l'impression à lire le message qu'elle ait été suivie à l'exact (on parle de créer autant de point de montage que de volumes, pas de disque comme je le disais plus haut).

 

Je pense que refaire cette procédure pas à pas est la chose à faire actuellement, ensuite si ça ne marche pas rechercher les volumes avec LVM (commandes vg*) puis le raid avec mdadm (md*).

 

Dans le cas d'un démarrage impossible, seule la 1ere partition (premier ensemble raid en principe : md0) est à réparer, les données étant sur les autres groupes raid.

Et, règle de base sur un crash disque, on prend son temps et on ne fait rien trop tard le soir, ou tôt dans la nuit, si on est pas totalement reposé...

 

Jacques

Link to post
Share on other sites

Merci de vos retours.

 

 

-$ lsblk
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
loop0    7:0    0     4K  1 loop /snap/bare/5
loop1    7:1    0  61,9M  1 loop /snap/core20/1405
loop2    7:2    0 248,8M  1 loop /snap/gnome-3-38-2004/99
loop3    7:3    0  61,9M  1 loop /snap/core20/1328
loop4    7:4    0  43,6M  1 loop /snap/snapd/14978
loop5    7:5    0  54,2M  1 loop /snap/snap-store/558
loop6    7:6    0  65,2M  1 loop /snap/gtk-common-themes/1519
loop7    7:7    0  44,7M  1 loop /snap/snapd/15314
sda      8:0    0 111,8G  0 disk
├─sda1   8:1    0   2,4G  0 part
├─sda2   8:2    0     2G  0 part
├─sda3   8:3    0   513M  0 part /boot/efi
├─sda4   8:4    0     1K  0 part
└─sda5   8:5    0 106,9G  0 part /
sdb      8:16   0   3,7T  0 disk
├─sdb1   8:17   0   2,4G  0 part
├─sdb2   8:18   0     2G  0 part
└─sdb5   8:21   0   3,6T  0 part
sdc      8:32   0   3,7T  0 disk
├─sdc1   8:33   0   2,4G  0 part
├─sdc2   8:34   0     2G  0 part
└─sdc5   8:37   0   3,6T  0 part
sdd      8:48   0   3,7T  0 disk
├─sdd1   8:49   0   2,4G  0 part
├─sdd2   8:50   0     2G  0 part
└─sdd5   8:53   0   3,6T  0 part
sde      8:64   0   3,7T  0 disk
├─sde1   8:65   0   2,4G  0 part
├─sde2   8:66   0     2G  0 part
└─sde5   8:69   0   3,6T  0 part
sdf      8:80   0   3,7T  0 disk
├─sdf1   8:81   0   2,4G  0 part
├─sdf2   8:82   0     2G  0 part
└─sdf5   8:85   0   3,6T  0 part
sdh      8:112  0   3,7T  0 disk
├─sdh1   8:113  0   2,4G  0 part
├─sdh2   8:114  0     2G  0 part
└─sdh5   8:117  0   3,6T  0 part
sdi      8:128  0   3,7T  0 disk
├─sdi1   8:129  0   2,4G  0 part
├─sdi2   8:130  0     2G  0 part
└─sdi5   8:133  0   3,6T  0 part
sdj      8:144  0   3,7T  0 disk
├─sdj1   8:145  0   2,4G  0 part
├─sdj2   8:146  0     2G  0 part
└─sdj5   8:149  0   3,6T  0 part
sdk      8:160  0   3,7T  0 disk
├─sdk1   8:161  0   2,4G  0 part
├─sdk2   8:162  0     2G  0 part
└─sdk5   8:165  0   3,6T  0 part
sdl      8:176  0   3,7T  0 disk
├─sdl1   8:177  0   2,4G  0 part
├─sdl2   8:178  0     2G  0 part
└─sdl5   8:181  0   3,6T  0 part
sdm      8:192  0   3,7T  0 disk
├─sdm1   8:193  0   2,4G  0 part
├─sdm2   8:194  0     2G  0 part
└─sdm5   8:197  0   3,6T  0 part
sdn      8:208  0   3,7T  0 disk
├─sdn1   8:209  0   2,4G  0 part
├─sdn2   8:210  0     2G  0 part
└─sdn5   8:213  0   3,6T  0 part
sdo      8:224  0   3,7T  0 disk
├─sdo1   8:225  0   2,4G  0 part
├─sdo2   8:226  0     2G  0 part
└─sdo5   8:229  0   3,6T  0 part

 

~$ mdadm --examine --scan
~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md3 : inactive sde5[5](S) sdf5[13](S) sdc5[8](S) sdd5[11](S) sdo5[2](S) sdn5[15](S) sdm5[12](S) sdl5[14](S) sdk5[10](S) sdj5[7](S) sdi5[0](S) sdh5[4](S) sdb5[9](S)
      50728436928 blocks super 1.2

unused devices: <none>
~$

 

Pour info, j'ai un disque fraîchement remplacé qui est vide (certainement celui noté "inactive" dans le log MDSTAT.

 

Calmement, en ayant bien dormi :-) comment puis-je faire le montage pour accéder à mes données en lecture seule ?

 

 

Link to post
Share on other sites
Posted (edited)

un mount  /dev/md3  /home/crob/volume2 m'affiche maintenant

 

image.thumb.png.826aec1b87f02894dd90c13889e848ba.png

 

# file -s /dev/sd(b jusqu'à o) :


image.png

image.png

 

#parted -l

# parted -l
Model: ATA PNY CS900 120GB (scsi)
Disk /dev/sda: 120GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type      File system     Flags
 1      1049kB  2551MB  2550MB  primary   ext4            raid
 2      2551MB  4699MB  2147MB  primary   linux-swap(v1)  raid
 3      4699MB  5237MB  538MB   primary   fat32           boot, esp
 4      5238MB  120GB   115GB   extended
 5      5238MB  120GB   115GB   logical   ext4


Model: ATA WDC WD40EFAX-68J (scsi)
Disk /dev/sdb: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFRX-68N (scsi)
Disk /dev/sdc: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdd: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFRX-68N (scsi)
Disk /dev/sde: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdf: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFRX-68N (scsi)
Disk /dev/sdo: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdm: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdk: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFRX-68N (scsi)
Disk /dev/sdi: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdn: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EZAZ-00S (scsi)
Disk /dev/sdl: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFAX-68J (scsi)
Disk /dev/sdj: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


Model: ATA WDC WD40EFRX-68N (scsi)
Disk /dev/sdh: 4001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name  Flags
 1      1049kB  2551MB  2550MB  ext4                  raid
 2      2551MB  4699MB  2147MB  linux-swap(v1)        raid
 5      4840MB  4001GB  3996GB                        raid


root@crob-To-be-filled-by-O-E-M:/dev#

 

#gdisk -l

image.thumb.png.8199cbaea974d0b3e09fbf2a4335658b.png

 

 

#mdadm --examine

image.thumb.png.763c3b84158f1a082304960762a58519.png

 

Edited by crob-37
Link to post
Share on other sites

Bonsoir,

Vu le descriptif de la panne, ça ne sent pas trop bon pour la sécurité des données, il n'y a plus aucune marge de sécurité avec le disque remplacé et vide.

 

SHR est une combinaison Raid soft et LVM par dessus, ce qui veut dire concrètement qu'il y a 2 niveaux d'abstraction concernant les données.

Le premier niveau est le raid (commandes md*) qui permet d'assembler la matrice raid qui supporte le LVM ensuite.

Le second niveau est la gestion des volumes logiques (LVM) qui permet de regrouper plusieurs matrices raid si besoin est (ce n'est pas le cas dans ta configuration, mais la couche LVM est présente).

 

Une fois le raid assemblé, il faut remonter le volume (dans le lien donné avec la procédure de récupération c'est avec vgchange).

Ton cas devrait correspondre à la colonne "SHR with single volume" dans le tableau de cette procédure.

Dans ce cas, il faut recréer le volume et ensuite seulement le monter. Autrement, les données de peuvent pas être retrouvées pour déterminer le type de montage à faire.

 

Comme indiqué dans la procédure, la commande lvs devrait permettre d'identifier les volumes à réassembler puis à monter.

 

Je te donne un exemple de la sortie de ces commades sur mon NAS perso (5 disques de 4x4To et 1x1To, avec 1 volume SHR avec les 4x4To et un volume SHR sans redondance sur le disque de 1To).

root@Maison:~# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [raidF1] 
md2 : active raid5 sda5[0] sdd5[3] sdc5[2] sdb5[1]
      11706562368 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
      
md3 : active raid1 sde3[0]
      971940544 blocks super 1.2 [1/1] [U]
      
md1 : active raid1 sda2[0] sdb2[1] sdc2[2] sdd2[3] sde2[4]
      2097088 blocks [12/5] [UUUUU_______]
      
md0 : active raid1 sda1[0] sdb1[1] sdc1[2] sdd1[3] sde1[4]
      2490176 blocks [12/5] [UUUUU_______]
      
unused devices: <none>
root@Maison:~# lvs
  LV                    VG   Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  syno_vg_reserved_area vg1  -wi-a----- 12.00m                                                    
  volume_1              vg1  -wi-ao---- 10.90t                                                    
root@Maison:~# pvs
  PV         VG   Fmt  Attr PSize  PFree
  /dev/md2   vg1  lvm2 a--  10.90t    0 
root@Maison:~# vgs
  VG   #PV #LV #SN Attr   VSize  VFree
  vg1    1   2   0 wz--n- 10.90t    0 
root@Maison:~# mount -t ext4 -t btrfs
/dev/md3 on /volume2 type btrfs (rw,relatime,synoacl,nospace_cache,metadata_ratio=50)
/dev/mapper/vg1-volume_1 on /volume1 type btrfs (rw,relatime,synoacl,nospace_cache,metadata_ratio=50)

md0 est le DSM, md1 le swap, md2 le volume 1 (via LVM) et md3 le volume 2 (sans redondance, donc accès direct sans LVM).

 

Jacques

Link to post
Share on other sites
Posted (edited)

c'est justement, je n'arrive pas à monter le RAID5.

 

je récapitule #cat /proc/mdstat

 

image.thumb.png.816d977fd44d0e473312b9c34740b369.png

 

 

les FDISK -l de tous les /dev/sdxxx remontent bien l'info : TYPE LINUX RAID

 

image.thumb.png.24f9d3e1b09e162224e1b105428ce642.png

 

 

Syno nous dit :

image.thumb.png.1c9a1f36aaf0706471742b64f142c4dd.png

 

 

mais les commandes LVS, PVS etc ... ne remontent rien (LVM2 est bien installé)

 

on est bien dans le cas où le MOUNT doit suffire, mais le mount ne marche pas :

mount : can't read superblock on  /dev/md3

 

je n'ai pas de problème apparent :

 

# parted -l

 

image.thumb.png.fb5b1b91b7bb4b86c625ab8acaff39d7.png

 

 

# blkid
/dev/sda1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5f461e66-01"
/dev/sda2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5f461e66-02"
/dev/sda3: UUID="1E64-7E47" TYPE="vfat" PARTUUID="5f461e66-03"
/dev/sda5: UUID="53d5ec62-57a5-42d2-9c2c-3aa5635e82d1" TYPE="ext4" PARTUUID="5f461e66-05"
/dev/sdb1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="1029e3df-ade0-478b-bb07-2d4785482cef"
/dev/sdb2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a75e9902-8c18-430f-b4ae-e9e7437848be"
/dev/sdb5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="827178aa-fad1-ae4d-fc3b-5009760691cd" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="38aa99da-5253-4bd0-ab3e-d463f6655b29"
/dev/sdc1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a18d1bb1-1ac4-4bc9-9e3d-9d92d0776a94"
/dev/sdc2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="bdbd3882-49a9-4303-bec5-db05a2944b99"
/dev/sdc5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="01190794-fb06-852d-2845-8888cea25451" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="12ed13ea-d144-4ee4-a47a-f2f5c5fbe126"
/dev/sdd1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9fc78b58-e9fe-4ec7-8b17-a5292a662625"
/dev/sdd2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5542c7ca-8421-408f-bd3b-f7a382d4962e"
/dev/sdd5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="8649eca8-a2b5-6f2e-9a34-4872a614353c" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="df43796c-5a3e-4e3b-bf52-c8af0df6c3e1"
/dev/sde1: LABEL="1.42.6-5644" UUID="0bfa9950-769b-4e78-9735-bbfbf7a90c27" TYPE="ext4" PARTUUID="66883165-28ee-478b-870a-6a84959f36c8"
/dev/sde2: TYPE="swap" PARTUUID="aa450709-11a9-4cc3-ab1e-bbdd1155f4c5"
/dev/sde5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="7078b8e7-ddb4-c239-c55d-a49a4cfd4567" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="dfa1341a-d57a-4f4b-af00-8f61605a35c1"
/dev/sdf1: LABEL="1.42.6-5644" UUID="b621e24b-97da-44d2-8b35-ae7b140ab8d5" TYPE="ext4" PARTUUID="ec09477a-0243-43e6-a453-f5c42a42e9cd"
/dev/sdf2: TYPE="swap" PARTUUID="a07a25a7-e4ec-47d1-a26f-3bada8b1dfdc"
/dev/sdf5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="711b6469-af1d-cb29-65ec-8957650d5aff" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="bcff268a-db01-4e02-aca4-a79b299175b7"
/dev/sdh1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="32931c97-361a-4f1e-b7c7-39c982a81f06"
/dev/sdh2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="4fb28cf5-e7c5-43c2-8282-a3623eee3eca"
/dev/sdh5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="640be03a-2b52-4fbe-45e3-54aa074f2d09" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="0cd4b2c9-e415-4cdf-8601-e9a5da73d8a9"
/dev/sdi1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="3d43f001-771e-486d-8d38-f12ebdd13823"
/dev/sdi2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="85221ddd-3f87-407e-aafd-bbd793d43a70"
/dev/sdi5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="cc34b4d7-31bc-8b71-0273-42236d9f369b" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="8f5503a5-e0ec-4ae0-a2bc-ef21b40bd800"
/dev/sdj1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="71a021fe-7924-43c4-9ddf-f37245bfbefc"
/dev/sdj2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="3b26981d-9ce6-47b0-a23c-990792f2e194"
/dev/sdj5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="54dd23fa-09b7-6f96-36d0-f600e99a4fb9" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="e994a800-6de7-410d-a33e-8ba74e00219c"
/dev/sdk1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="b1b903cc-030e-488e-892d-36c2cd418eb4"
/dev/sdk2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="8f5008c9-a225-4bdc-8356-ac972f40b4c7"
/dev/sdk5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="11a91176-d829-cb0e-ff7b-21ff056f14f0" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="c0bc716b-6c3a-4acd-b98e-79f0c164fbf9"
/dev/sdl1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a1443fb3-4b54-4848-972c-1f09f5292297"
/dev/sdl2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="c6e783fc-c4ea-433d-aef7-c5dc0757a9a9"
/dev/sdl5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="fadd4aca-c112-677e-394c-9d35cb085930" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="b90eefbe-f784-455a-adcb-b6255c4b5615"
/dev/sdm1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="040faaa8-a922-4a03-ac36-3c948ec0cfa9"
/dev/sdm2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="d19fb074-72bc-4772-b48a-eb3240349fa2"
/dev/sdm5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="d99f354d-9b19-dd09-9551-0a98ad7f3208" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="8ca4badc-1d09-4579-9e80-d7a7a8331786"
/dev/sdn1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="381c02df-ea91-4d9d-a2f4-f5a372c6c389"
/dev/sdn2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="18c58cc6-de37-4c5a-aaac-537e58c028e2"
/dev/sdn5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="abc6e0d4-1115-c8ad-a2f5-b2fd528abe35" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="51a6a6f1-7b17-4c62-a64a-6c0d27553e5c"
/dev/sdo1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="33eed552-f8fa-480f-a2cb-4f493b3796fa"
/dev/sdo2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="7b52db2d-f318-4065-8026-2890c46352d6"
/dev/sdo5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="3addffcb-6c4b-b5af-b869-fa37e2f45977" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="7023bf66-0306-402f-84cc-fd921dd14c82"

 

contenu de /etc/mdadm/mdadm.conf :

image.thumb.png.55190372bb482989b519b3891574656b.png

 

 

enfin : mdadm --detail --scan --verbose

image.thumb.png.bbb62ffe9327766d8d6c39c566e35ea3.png

 

 

tous les 13 devices ont un checksum correct :

 

image.thumb.png.eeb3adc9f3d179a91eb4689b80e417af.png

 

 

 

 

 

 

Mes données ne sont pourtant pas loin d'être récupérées !!!  Grrrr

J'ai essayé de stopper et rescanner les devices :

 

root@crob-To-be-filled-by-O-E-M:~# mdadm --stop /dev/md3
mdadm: stopped /dev/md3
root@crob-To-be-filled-by-O-E-M:~# mdadm --assemble --scan -v
mdadm: looking for devices for /dev/md/3
mdadm: No super block found on /dev/sdo2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdo2
mdadm: No super block found on /dev/sdo1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdo1
mdadm: No super block found on /dev/sdo (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdo
mdadm: No super block found on /dev/sdn2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdn2
mdadm: No super block found on /dev/sdn1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdn1
mdadm: No super block found on /dev/sdn (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdn
mdadm: No super block found on /dev/sdm2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdm2
mdadm: No super block found on /dev/sdm1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdm1
mdadm: No super block found on /dev/sdm (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdm
mdadm: No super block found on /dev/sdl2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdl2
mdadm: No super block found on /dev/sdl1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdl1
mdadm: No super block found on /dev/sdl (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdl
mdadm: No super block found on /dev/sdk2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdk2
mdadm: No super block found on /dev/sdk1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdk1
mdadm: No super block found on /dev/sdk (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdk
mdadm: No super block found on /dev/sdj2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdj2
mdadm: No super block found on /dev/sdj1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdj1
mdadm: No super block found on /dev/sdj (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdj
mdadm: No super block found on /dev/sdi2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdi2
mdadm: No super block found on /dev/sdi1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdi1
mdadm: No super block found on /dev/sdi (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdi
mdadm: No super block found on /dev/sdh2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdh2
mdadm: No super block found on /dev/sdh1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdh1
mdadm: No super block found on /dev/sdh (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdh
mdadm: No super block found on /dev/sdf2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdf2
mdadm: No super block found on /dev/sdf1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdf1
mdadm: No super block found on /dev/sdf (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdf
mdadm: No super block found on /dev/sde2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sde2
mdadm: No super block found on /dev/sde1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sde1
mdadm: No super block found on /dev/sde (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sde
mdadm: No super block found on /dev/sdd2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdd2
mdadm: No super block found on /dev/sdd1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdd1
mdadm: No super block found on /dev/sdd (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdd
mdadm: No super block found on /dev/sdc2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sdc2
mdadm: No super block found on /dev/sdc1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdc1
mdadm: No super block found on /dev/sdc (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdc
mdadm: No super block found on /dev/sdb2 (Expected magic a92b4efc, got d5987e26)
mdadm: no RAID superblock on /dev/sdb2
mdadm: No super block found on /dev/sdb1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sdb1
mdadm: No super block found on /dev/sdb (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sdb
mdadm: No super block found on /dev/sda5 (Expected magic a92b4efc, got 0000040f)
mdadm: no RAID superblock on /dev/sda5
mdadm: /dev/sda4 is too small for md: size is 2 sectors.
mdadm: no RAID superblock on /dev/sda4
mdadm: No super block found on /dev/sda3 (Expected magic a92b4efc, got 00000000)
mdadm: no RAID superblock on /dev/sda3
mdadm: No super block found on /dev/sda2 (Expected magic a92b4efc, got 9b032dcb)
mdadm: no RAID superblock on /dev/sda2
mdadm: No super block found on /dev/sda1 (Expected magic a92b4efc, got 00000131)
mdadm: no RAID superblock on /dev/sda1
mdadm: No super block found on /dev/sda (Expected magic a92b4efc, got 96907290)
mdadm: no RAID superblock on /dev/sda
mdadm: No super block found on /dev/loop7 (Expected magic a92b4efc, got e219696e)
mdadm: no RAID superblock on /dev/loop7
mdadm: No super block found on /dev/loop6 (Expected magic a92b4efc, got 3a23b8f9)
mdadm: no RAID superblock on /dev/loop6
mdadm: No super block found on /dev/loop5 (Expected magic a92b4efc, got a83a918c)
mdadm: no RAID superblock on /dev/loop5
mdadm: No super block found on /dev/loop4 (Expected magic a92b4efc, got 1bd7e597)
mdadm: no RAID superblock on /dev/loop4
mdadm: No super block found on /dev/loop3 (Expected magic a92b4efc, got 3a23b8f9)
mdadm: no RAID superblock on /dev/loop3
mdadm: No super block found on /dev/loop2 (Expected magic a92b4efc, got 9dc75b62)
mdadm: no RAID superblock on /dev/loop2
mdadm: No super block found on /dev/loop1 (Expected magic a92b4efc, got 1a090af0)
mdadm: no RAID superblock on /dev/loop1
mdadm: /dev/loop0 is too small for md: size is 8 sectors.
mdadm: no RAID superblock on /dev/loop0
mdadm: /dev/sdo5 is identified as a member of /dev/md/3, slot 2.
mdadm: /dev/sdn5 is identified as a member of /dev/md/3, slot 12.
mdadm: /dev/sdm5 is identified as a member of /dev/md/3, slot 8.
mdadm: /dev/sdl5 is identified as a member of /dev/md/3, slot 11.
mdadm: /dev/sdk5 is identified as a member of /dev/md/3, slot 10.
mdadm: /dev/sdj5 is identified as a member of /dev/md/3, slot 5.
mdadm: /dev/sdi5 is identified as a member of /dev/md/3, slot 0.
mdadm: /dev/sdh5 is identified as a member of /dev/md/3, slot 3.
mdadm: /dev/sdf5 is identified as a member of /dev/md/3, slot 7.
mdadm: /dev/sde5 is identified as a member of /dev/md/3, slot 4.
mdadm: /dev/sdd5 is identified as a member of /dev/md/3, slot 9.
mdadm: /dev/sdc5 is identified as a member of /dev/md/3, slot 1.
mdadm: /dev/sdb5 is identified as a member of /dev/md/3, slot 6.
mdadm: added /dev/sdc5 to /dev/md/3 as 1
mdadm: added /dev/sdo5 to /dev/md/3 as 2
mdadm: added /dev/sdh5 to /dev/md/3 as 3
mdadm: added /dev/sde5 to /dev/md/3 as 4
mdadm: added /dev/sdj5 to /dev/md/3 as 5
mdadm: added /dev/sdb5 to /dev/md/3 as 6
mdadm: added /dev/sdf5 to /dev/md/3 as 7 (possibly out of date)
mdadm: added /dev/sdm5 to /dev/md/3 as 8
mdadm: added /dev/sdd5 to /dev/md/3 as 9
mdadm: added /dev/sdk5 to /dev/md/3 as 10 (possibly out of date)
mdadm: added /dev/sdl5 to /dev/md/3 as 11
mdadm: added /dev/sdn5 to /dev/md/3 as 12
mdadm: added /dev/sdi5 to /dev/md/3 as 0
mdadm: /dev/md/3 assembled from 11 drives - not enough to start the array.
root@crob-To-be-filled-by-O-E-M:~#

 

Alors là je sèche, je vois bien que les EVENTS de 2 des 13 disques sont désynchronisés :

image.thumb.png.ade75f044960a0363ad24c167a9a9191.png

 

 

mais alors comment tenter de les synchroniser avec les 11 autres ?

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Edited by crob-37
Link to post
Share on other sites
Posted (edited)

/dev/sdf5 et /dev/sdk5 en cause

EVENTS de l'ARRAY = 536358
EVENTS des 2 disques : 536356 et 536354

correction ?

mdadm --examine /dev/sdf5 :  last update time is 17 mars 2022 à 22h38  ???
mdadm --examine /dev/sdk5 :  last update time is 17 mars 2022 à 22h20  ???
alors que tous les autres : 28 mars 2022 à 15h37

le NAS est en panne depuis le 16 février 2022, normalement aucune MAJ depuis cette date :-(

 

mdadm --examine /dev/sd[bcdefhijklmno]5  |grep 'Role'
/dev/sdb5 : Device Role : Active device 6
/dev/sdc5 : Device Role : Active device 1
/dev/sdd5 : Device Role : Active device 9
/dev/sde5 : Device Role : Active device 4
/dev/sdf5 : Device Role : Active device 7  <--- décalé
/dev/sdh5 : Device Role : Active device 3
/dev/sdi5 : Device Role : Active device 0
/dev/sdj5 : Device Role : Active device 5
/dev/sdk5 : Device Role : Active device 10 <--- décalé
/dev/sdl5 : Device Role : Active device 11
/dev/sdm5 : Device Role : Active device 8
/dev/sdn5 : Device Role : Active device 12
/dev/sdo5 : Device Role : Active device 2

 

OPTION 1 :
mdadm --stop /dev/md3
mdadm --zero-superblock /dev/sd[bcdefhijklmno]5
mdadm --create /dev/md127 --level=5 --raid-device=13 --assume-clean /dev/sdi5 /dev/sdc5 /dev/sdo5 /dev/sdh5 /dev/sde5 /dev/sdj5 /dev/sdb5  missing /dev/sdm5 /dev/sdd5  missing  /dev/sdl5 /dev/sdn5

et ça devrait marcher !!! mais si ça ne marche pas, est-ce que mes data sont écrasées .... ?
 

OPTION 2 :
Fail the drive

mdadm --manage /dev/md3 --fail /dev/sdf5
mdadm --manage /dev/md3 --fail /dev/sdk5

Remove from array

mdadm --manage /dev/md3 --remove /dev/sdf5
mdadm --manage /dev/md3 --remove /dev/sdk5


Wipe superblock

mdadm --zero-superblock /dev/sdf5
mdadm --zero-superblock /dev/sdk5

Finally re-add the drive

mdadm --manage /dev/md3 --add /dev/sdf5
mdadm --manage /dev/md3 --add /dev/sdk5

It will take a while to rebuild from the existing data + parity.

 

et ça devrait marcher !!! mais si ça ne marche pas, est-ce que mes data sont écrasées .... ?
 

Edited by crob-37
Link to post
Share on other sites

Bonjour,

Pas assez d'expérience en récupération de raid pour te conseiller une des méthodes.

L'option --zero-superblock réinitialise le disque au point de vue de la grappe raid, ce qui fait qu'il est vu comme un nouveau disque, et donc vierge !!!

 

La réponse de mdadm n'est pas encourageante, /dev/md/3 assembled from 11 drives - not enough to start the array

Cela indique clairement qu'il manque un disque pour restaurer les données sur le disque vide. Dans ce contexte, la récupération des données me parait relever d'une structure spécialisée dans ce type d'opération, et ce n'est pas garanti que tout puisse être récupérer puisque les données de parités réparties sur les 13 disques manquent sur un.

 

Pose la question sur un forum de développeurs mdadm, tu auras peut-être une autre piste, mais là je sèche.

 

Jacques

Link to post
Share on other sites

Phénomène intéressant.

 

Je sais que 2 disques sont décalés dans le "Last Written I/Os Timestamp" par rapport au reste de la grappe.

J'ai donc ôté l'un des ces 2 disques.

Au final, j'ai changé le SSD de boot Ubunto pour remettre le DSM du NAS Syno. Et hop, le volume réapparaît en mode DEGRADE !!

 

image.thumb.png.6f8283fbd25c3eb8a5dcb3c4da1ab1b7.png

 

Il n"y a pas, par contre, le petit link sur lequel cliquer pour faire la réparation automatique (certainement parce qu'il ne peut pas !)

 

Je lance donc une copie de ce qui est accessible ... ensuite j'inverse le disque changé avec le 2ème qui était en décalage et on verra ...

 

 

 

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.