Jump to content
XPEnology Community

crob-37

Rookie
  • Posts

    8
  • Joined

  • Last visited

crob-37's Achievements

Newbie

Newbie (1/7)

0

Reputation

  1. Phénomène intéressant. Je sais que 2 disques sont décalés dans le "Last Written I/Os Timestamp" par rapport au reste de la grappe. J'ai donc ôté l'un des ces 2 disques. Au final, j'ai changé le SSD de boot Ubunto pour remettre le DSM du NAS Syno. Et hop, le volume réapparaît en mode DEGRADE !! Il n"y a pas, par contre, le petit link sur lequel cliquer pour faire la réparation automatique (certainement parce qu'il ne peut pas !) Je lance donc une copie de ce qui est accessible ... ensuite j'inverse le disque changé avec le 2ème qui était en décalage et on verra ...
  2. /dev/sdf5 et /dev/sdk5 en cause EVENTS de l'ARRAY = 536358 EVENTS des 2 disques : 536356 et 536354 correction ? mdadm --examine /dev/sdf5 : last update time is 17 mars 2022 à 22h38 ??? mdadm --examine /dev/sdk5 : last update time is 17 mars 2022 à 22h20 ??? alors que tous les autres : 28 mars 2022 à 15h37 le NAS est en panne depuis le 16 février 2022, normalement aucune MAJ depuis cette date mdadm --examine /dev/sd[bcdefhijklmno]5 |grep 'Role' /dev/sdb5 : Device Role : Active device 6 /dev/sdc5 : Device Role : Active device 1 /dev/sdd5 : Device Role : Active device 9 /dev/sde5 : Device Role : Active device 4 /dev/sdf5 : Device Role : Active device 7 <--- décalé /dev/sdh5 : Device Role : Active device 3 /dev/sdi5 : Device Role : Active device 0 /dev/sdj5 : Device Role : Active device 5 /dev/sdk5 : Device Role : Active device 10 <--- décalé /dev/sdl5 : Device Role : Active device 11 /dev/sdm5 : Device Role : Active device 8 /dev/sdn5 : Device Role : Active device 12 /dev/sdo5 : Device Role : Active device 2 OPTION 1 : mdadm --stop /dev/md3 mdadm --zero-superblock /dev/sd[bcdefhijklmno]5 mdadm --create /dev/md127 --level=5 --raid-device=13 --assume-clean /dev/sdi5 /dev/sdc5 /dev/sdo5 /dev/sdh5 /dev/sde5 /dev/sdj5 /dev/sdb5 missing /dev/sdm5 /dev/sdd5 missing /dev/sdl5 /dev/sdn5 et ça devrait marcher !!! mais si ça ne marche pas, est-ce que mes data sont écrasées .... ? OPTION 2 : Fail the drive mdadm --manage /dev/md3 --fail /dev/sdf5 mdadm --manage /dev/md3 --fail /dev/sdk5 Remove from array mdadm --manage /dev/md3 --remove /dev/sdf5 mdadm --manage /dev/md3 --remove /dev/sdk5 Wipe superblock mdadm --zero-superblock /dev/sdf5 mdadm --zero-superblock /dev/sdk5 Finally re-add the drive mdadm --manage /dev/md3 --add /dev/sdf5 mdadm --manage /dev/md3 --add /dev/sdk5 It will take a while to rebuild from the existing data + parity. et ça devrait marcher !!! mais si ça ne marche pas, est-ce que mes data sont écrasées .... ?
  3. c'est justement, je n'arrive pas à monter le RAID5. je récapitule : #cat /proc/mdstat les FDISK -l de tous les /dev/sdxxx remontent bien l'info : TYPE LINUX RAID Syno nous dit : mais les commandes LVS, PVS etc ... ne remontent rien (LVM2 est bien installé) on est bien dans le cas où le MOUNT doit suffire, mais le mount ne marche pas : mount : can't read superblock on /dev/md3 je n'ai pas de problème apparent : # parted -l # blkid /dev/sda1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5f461e66-01" /dev/sda2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5f461e66-02" /dev/sda3: UUID="1E64-7E47" TYPE="vfat" PARTUUID="5f461e66-03" /dev/sda5: UUID="53d5ec62-57a5-42d2-9c2c-3aa5635e82d1" TYPE="ext4" PARTUUID="5f461e66-05" /dev/sdb1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="1029e3df-ade0-478b-bb07-2d4785482cef" /dev/sdb2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a75e9902-8c18-430f-b4ae-e9e7437848be" /dev/sdb5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="827178aa-fad1-ae4d-fc3b-5009760691cd" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="38aa99da-5253-4bd0-ab3e-d463f6655b29" /dev/sdc1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a18d1bb1-1ac4-4bc9-9e3d-9d92d0776a94" /dev/sdc2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="bdbd3882-49a9-4303-bec5-db05a2944b99" /dev/sdc5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="01190794-fb06-852d-2845-8888cea25451" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="12ed13ea-d144-4ee4-a47a-f2f5c5fbe126" /dev/sdd1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9fc78b58-e9fe-4ec7-8b17-a5292a662625" /dev/sdd2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="5542c7ca-8421-408f-bd3b-f7a382d4962e" /dev/sdd5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="8649eca8-a2b5-6f2e-9a34-4872a614353c" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="df43796c-5a3e-4e3b-bf52-c8af0df6c3e1" /dev/sde1: LABEL="1.42.6-5644" UUID="0bfa9950-769b-4e78-9735-bbfbf7a90c27" TYPE="ext4" PARTUUID="66883165-28ee-478b-870a-6a84959f36c8" /dev/sde2: TYPE="swap" PARTUUID="aa450709-11a9-4cc3-ab1e-bbdd1155f4c5" /dev/sde5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="7078b8e7-ddb4-c239-c55d-a49a4cfd4567" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="dfa1341a-d57a-4f4b-af00-8f61605a35c1" /dev/sdf1: LABEL="1.42.6-5644" UUID="b621e24b-97da-44d2-8b35-ae7b140ab8d5" TYPE="ext4" PARTUUID="ec09477a-0243-43e6-a453-f5c42a42e9cd" /dev/sdf2: TYPE="swap" PARTUUID="a07a25a7-e4ec-47d1-a26f-3bada8b1dfdc" /dev/sdf5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="711b6469-af1d-cb29-65ec-8957650d5aff" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="bcff268a-db01-4e02-aca4-a79b299175b7" /dev/sdh1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="32931c97-361a-4f1e-b7c7-39c982a81f06" /dev/sdh2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="4fb28cf5-e7c5-43c2-8282-a3623eee3eca" /dev/sdh5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="640be03a-2b52-4fbe-45e3-54aa074f2d09" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="0cd4b2c9-e415-4cdf-8601-e9a5da73d8a9" /dev/sdi1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="3d43f001-771e-486d-8d38-f12ebdd13823" /dev/sdi2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="85221ddd-3f87-407e-aafd-bbd793d43a70" /dev/sdi5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="cc34b4d7-31bc-8b71-0273-42236d9f369b" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="8f5503a5-e0ec-4ae0-a2bc-ef21b40bd800" /dev/sdj1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="71a021fe-7924-43c4-9ddf-f37245bfbefc" /dev/sdj2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="3b26981d-9ce6-47b0-a23c-990792f2e194" /dev/sdj5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="54dd23fa-09b7-6f96-36d0-f600e99a4fb9" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="e994a800-6de7-410d-a33e-8ba74e00219c" /dev/sdk1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="b1b903cc-030e-488e-892d-36c2cd418eb4" /dev/sdk2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="8f5008c9-a225-4bdc-8356-ac972f40b4c7" /dev/sdk5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="11a91176-d829-cb0e-ff7b-21ff056f14f0" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="c0bc716b-6c3a-4acd-b98e-79f0c164fbf9" /dev/sdl1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="a1443fb3-4b54-4848-972c-1f09f5292297" /dev/sdl2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="c6e783fc-c4ea-433d-aef7-c5dc0757a9a9" /dev/sdl5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="fadd4aca-c112-677e-394c-9d35cb085930" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="b90eefbe-f784-455a-adcb-b6255c4b5615" /dev/sdm1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="040faaa8-a922-4a03-ac36-3c948ec0cfa9" /dev/sdm2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="d19fb074-72bc-4772-b48a-eb3240349fa2" /dev/sdm5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="d99f354d-9b19-dd09-9551-0a98ad7f3208" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="8ca4badc-1d09-4579-9e80-d7a7a8331786" /dev/sdn1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="381c02df-ea91-4d9d-a2f4-f5a372c6c389" /dev/sdn2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="18c58cc6-de37-4c5a-aaac-537e58c028e2" /dev/sdn5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="abc6e0d4-1115-c8ad-a2f5-b2fd528abe35" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="51a6a6f1-7b17-4c62-a64a-6c0d27553e5c" /dev/sdo1: UUID="14cc60cf-bc78-c41d-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="33eed552-f8fa-480f-a2cb-4f493b3796fa" /dev/sdo2: UUID="55fe5302-8a15-d3c4-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="7b52db2d-f318-4065-8026-2890c46352d6" /dev/sdo5: UUID="e76ad98d-141f-8997-82bc-9809b66d8b07" UUID_SUB="3addffcb-6c4b-b5af-b869-fa37e2f45977" LABEL="DS3615:3" TYPE="linux_raid_member" PARTUUID="7023bf66-0306-402f-84cc-fd921dd14c82" contenu de /etc/mdadm/mdadm.conf : enfin : mdadm --detail --scan --verbose tous les 13 devices ont un checksum correct : Mes données ne sont pourtant pas loin d'être récupérées !!! Grrrr J'ai essayé de stopper et rescanner les devices : root@crob-To-be-filled-by-O-E-M:~# mdadm --stop /dev/md3 mdadm: stopped /dev/md3 root@crob-To-be-filled-by-O-E-M:~# mdadm --assemble --scan -v mdadm: looking for devices for /dev/md/3 mdadm: No super block found on /dev/sdo2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdo2 mdadm: No super block found on /dev/sdo1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdo1 mdadm: No super block found on /dev/sdo (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdo mdadm: No super block found on /dev/sdn2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdn2 mdadm: No super block found on /dev/sdn1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdn1 mdadm: No super block found on /dev/sdn (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdn mdadm: No super block found on /dev/sdm2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdm2 mdadm: No super block found on /dev/sdm1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdm1 mdadm: No super block found on /dev/sdm (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdm mdadm: No super block found on /dev/sdl2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdl2 mdadm: No super block found on /dev/sdl1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdl1 mdadm: No super block found on /dev/sdl (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdl mdadm: No super block found on /dev/sdk2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdk2 mdadm: No super block found on /dev/sdk1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdk1 mdadm: No super block found on /dev/sdk (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdk mdadm: No super block found on /dev/sdj2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdj2 mdadm: No super block found on /dev/sdj1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdj1 mdadm: No super block found on /dev/sdj (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdj mdadm: No super block found on /dev/sdi2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdi2 mdadm: No super block found on /dev/sdi1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdi1 mdadm: No super block found on /dev/sdi (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdi mdadm: No super block found on /dev/sdh2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdh2 mdadm: No super block found on /dev/sdh1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdh1 mdadm: No super block found on /dev/sdh (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdh mdadm: No super block found on /dev/sdf2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdf2 mdadm: No super block found on /dev/sdf1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdf1 mdadm: No super block found on /dev/sdf (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdf mdadm: No super block found on /dev/sde2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sde2 mdadm: No super block found on /dev/sde1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sde1 mdadm: No super block found on /dev/sde (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sde mdadm: No super block found on /dev/sdd2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdd2 mdadm: No super block found on /dev/sdd1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdd1 mdadm: No super block found on /dev/sdd (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdd mdadm: No super block found on /dev/sdc2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sdc2 mdadm: No super block found on /dev/sdc1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdc1 mdadm: No super block found on /dev/sdc (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdc mdadm: No super block found on /dev/sdb2 (Expected magic a92b4efc, got d5987e26) mdadm: no RAID superblock on /dev/sdb2 mdadm: No super block found on /dev/sdb1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sdb1 mdadm: No super block found on /dev/sdb (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sdb mdadm: No super block found on /dev/sda5 (Expected magic a92b4efc, got 0000040f) mdadm: no RAID superblock on /dev/sda5 mdadm: /dev/sda4 is too small for md: size is 2 sectors. mdadm: no RAID superblock on /dev/sda4 mdadm: No super block found on /dev/sda3 (Expected magic a92b4efc, got 00000000) mdadm: no RAID superblock on /dev/sda3 mdadm: No super block found on /dev/sda2 (Expected magic a92b4efc, got 9b032dcb) mdadm: no RAID superblock on /dev/sda2 mdadm: No super block found on /dev/sda1 (Expected magic a92b4efc, got 00000131) mdadm: no RAID superblock on /dev/sda1 mdadm: No super block found on /dev/sda (Expected magic a92b4efc, got 96907290) mdadm: no RAID superblock on /dev/sda mdadm: No super block found on /dev/loop7 (Expected magic a92b4efc, got e219696e) mdadm: no RAID superblock on /dev/loop7 mdadm: No super block found on /dev/loop6 (Expected magic a92b4efc, got 3a23b8f9) mdadm: no RAID superblock on /dev/loop6 mdadm: No super block found on /dev/loop5 (Expected magic a92b4efc, got a83a918c) mdadm: no RAID superblock on /dev/loop5 mdadm: No super block found on /dev/loop4 (Expected magic a92b4efc, got 1bd7e597) mdadm: no RAID superblock on /dev/loop4 mdadm: No super block found on /dev/loop3 (Expected magic a92b4efc, got 3a23b8f9) mdadm: no RAID superblock on /dev/loop3 mdadm: No super block found on /dev/loop2 (Expected magic a92b4efc, got 9dc75b62) mdadm: no RAID superblock on /dev/loop2 mdadm: No super block found on /dev/loop1 (Expected magic a92b4efc, got 1a090af0) mdadm: no RAID superblock on /dev/loop1 mdadm: /dev/loop0 is too small for md: size is 8 sectors. mdadm: no RAID superblock on /dev/loop0 mdadm: /dev/sdo5 is identified as a member of /dev/md/3, slot 2. mdadm: /dev/sdn5 is identified as a member of /dev/md/3, slot 12. mdadm: /dev/sdm5 is identified as a member of /dev/md/3, slot 8. mdadm: /dev/sdl5 is identified as a member of /dev/md/3, slot 11. mdadm: /dev/sdk5 is identified as a member of /dev/md/3, slot 10. mdadm: /dev/sdj5 is identified as a member of /dev/md/3, slot 5. mdadm: /dev/sdi5 is identified as a member of /dev/md/3, slot 0. mdadm: /dev/sdh5 is identified as a member of /dev/md/3, slot 3. mdadm: /dev/sdf5 is identified as a member of /dev/md/3, slot 7. mdadm: /dev/sde5 is identified as a member of /dev/md/3, slot 4. mdadm: /dev/sdd5 is identified as a member of /dev/md/3, slot 9. mdadm: /dev/sdc5 is identified as a member of /dev/md/3, slot 1. mdadm: /dev/sdb5 is identified as a member of /dev/md/3, slot 6. mdadm: added /dev/sdc5 to /dev/md/3 as 1 mdadm: added /dev/sdo5 to /dev/md/3 as 2 mdadm: added /dev/sdh5 to /dev/md/3 as 3 mdadm: added /dev/sde5 to /dev/md/3 as 4 mdadm: added /dev/sdj5 to /dev/md/3 as 5 mdadm: added /dev/sdb5 to /dev/md/3 as 6 mdadm: added /dev/sdf5 to /dev/md/3 as 7 (possibly out of date) mdadm: added /dev/sdm5 to /dev/md/3 as 8 mdadm: added /dev/sdd5 to /dev/md/3 as 9 mdadm: added /dev/sdk5 to /dev/md/3 as 10 (possibly out of date) mdadm: added /dev/sdl5 to /dev/md/3 as 11 mdadm: added /dev/sdn5 to /dev/md/3 as 12 mdadm: added /dev/sdi5 to /dev/md/3 as 0 mdadm: /dev/md/3 assembled from 11 drives - not enough to start the array. root@crob-To-be-filled-by-O-E-M:~# Alors là je sèche, je vois bien que les EVENTS de 2 des 13 disques sont désynchronisés : mais alors comment tenter de les synchroniser avec les 11 autres ?
  4. un mount /dev/md3 /home/crob/volume2 m'affiche maintenant # file -s /dev/sd(b jusqu'à o) : #parted -l # parted -l Model: ATA PNY CS900 120GB (scsi) Disk /dev/sda: 120GB Sector size (logical/physical): 512B/512B Partition Table: msdos Disk Flags: Number Start End Size Type File system Flags 1 1049kB 2551MB 2550MB primary ext4 raid 2 2551MB 4699MB 2147MB primary linux-swap(v1) raid 3 4699MB 5237MB 538MB primary fat32 boot, esp 4 5238MB 120GB 115GB extended 5 5238MB 120GB 115GB logical ext4 Model: ATA WDC WD40EFAX-68J (scsi) Disk /dev/sdb: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFRX-68N (scsi) Disk /dev/sdc: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdd: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFRX-68N (scsi) Disk /dev/sde: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdf: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFRX-68N (scsi) Disk /dev/sdo: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdm: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdk: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFRX-68N (scsi) Disk /dev/sdi: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdn: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EZAZ-00S (scsi) Disk /dev/sdl: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFAX-68J (scsi) Disk /dev/sdj: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid Model: ATA WDC WD40EFRX-68N (scsi) Disk /dev/sdh: 4001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 2551MB 2550MB ext4 raid 2 2551MB 4699MB 2147MB linux-swap(v1) raid 5 4840MB 4001GB 3996GB raid root@crob-To-be-filled-by-O-E-M:/dev# #gdisk -l #mdadm --examine
  5. Merci de vos retours. -$ lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT loop0 7:0 0 4K 1 loop /snap/bare/5 loop1 7:1 0 61,9M 1 loop /snap/core20/1405 loop2 7:2 0 248,8M 1 loop /snap/gnome-3-38-2004/99 loop3 7:3 0 61,9M 1 loop /snap/core20/1328 loop4 7:4 0 43,6M 1 loop /snap/snapd/14978 loop5 7:5 0 54,2M 1 loop /snap/snap-store/558 loop6 7:6 0 65,2M 1 loop /snap/gtk-common-themes/1519 loop7 7:7 0 44,7M 1 loop /snap/snapd/15314 sda 8:0 0 111,8G 0 disk ├─sda1 8:1 0 2,4G 0 part ├─sda2 8:2 0 2G 0 part ├─sda3 8:3 0 513M 0 part /boot/efi ├─sda4 8:4 0 1K 0 part └─sda5 8:5 0 106,9G 0 part / sdb 8:16 0 3,7T 0 disk ├─sdb1 8:17 0 2,4G 0 part ├─sdb2 8:18 0 2G 0 part └─sdb5 8:21 0 3,6T 0 part sdc 8:32 0 3,7T 0 disk ├─sdc1 8:33 0 2,4G 0 part ├─sdc2 8:34 0 2G 0 part └─sdc5 8:37 0 3,6T 0 part sdd 8:48 0 3,7T 0 disk ├─sdd1 8:49 0 2,4G 0 part ├─sdd2 8:50 0 2G 0 part └─sdd5 8:53 0 3,6T 0 part sde 8:64 0 3,7T 0 disk ├─sde1 8:65 0 2,4G 0 part ├─sde2 8:66 0 2G 0 part └─sde5 8:69 0 3,6T 0 part sdf 8:80 0 3,7T 0 disk ├─sdf1 8:81 0 2,4G 0 part ├─sdf2 8:82 0 2G 0 part └─sdf5 8:85 0 3,6T 0 part sdh 8:112 0 3,7T 0 disk ├─sdh1 8:113 0 2,4G 0 part ├─sdh2 8:114 0 2G 0 part └─sdh5 8:117 0 3,6T 0 part sdi 8:128 0 3,7T 0 disk ├─sdi1 8:129 0 2,4G 0 part ├─sdi2 8:130 0 2G 0 part └─sdi5 8:133 0 3,6T 0 part sdj 8:144 0 3,7T 0 disk ├─sdj1 8:145 0 2,4G 0 part ├─sdj2 8:146 0 2G 0 part └─sdj5 8:149 0 3,6T 0 part sdk 8:160 0 3,7T 0 disk ├─sdk1 8:161 0 2,4G 0 part ├─sdk2 8:162 0 2G 0 part └─sdk5 8:165 0 3,6T 0 part sdl 8:176 0 3,7T 0 disk ├─sdl1 8:177 0 2,4G 0 part ├─sdl2 8:178 0 2G 0 part └─sdl5 8:181 0 3,6T 0 part sdm 8:192 0 3,7T 0 disk ├─sdm1 8:193 0 2,4G 0 part ├─sdm2 8:194 0 2G 0 part └─sdm5 8:197 0 3,6T 0 part sdn 8:208 0 3,7T 0 disk ├─sdn1 8:209 0 2,4G 0 part ├─sdn2 8:210 0 2G 0 part └─sdn5 8:213 0 3,6T 0 part sdo 8:224 0 3,7T 0 disk ├─sdo1 8:225 0 2,4G 0 part ├─sdo2 8:226 0 2G 0 part └─sdo5 8:229 0 3,6T 0 part ~$ mdadm --examine --scan ~$ cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md3 : inactive sde5[5](S) sdf5[13](S) sdc5[8](S) sdd5[11](S) sdo5[2](S) sdn5[15](S) sdm5[12](S) sdl5[14](S) sdk5[10](S) sdj5[7](S) sdi5[0](S) sdh5[4](S) sdb5[9](S) 50728436928 blocks super 1.2 unused devices: <none> ~$ Pour info, j'ai un disque fraîchement remplacé qui est vide (certainement celui noté "inactive" dans le log MDSTAT. Calmement, en ayant bien dormi comment puis-je faire le montage pour accéder à mes données en lecture seule ?
  6. Salut Après tes conseils, je n'arrive toujours pas à accéder aux disques via le SYNO. J'ai donc décidé de tester ceci "recover Syno Diskstation data using a PC" https://kb.synology.com/en-uk/DSM/tutorial/How_can_I_recover_data_from_my_DiskStation_using_a_PC Tout fonctionne jusqu'au moment de monter le 1er disque. J'ai donc monté les 13 disques de 4 To sur un PC avec Ubunto 20 avec espoir de récupérer chaque disque lisible sur chaque mountpoint. Pour faire court, a) il faut créer 13 répertoires qui vont servir de points de montage des 13 disques : cd /home/crob/recover mkdir 1 mkdir 2 ... mkdir 13 b) utiliser MDADM pour reconstituer le bloc des disques mdadm -Asf && vgchange -ay c) monter chaque disque $ mount ${device_path} ${mount_point} -o ro chez moi ça fait : mount /dev/dm-1 /home/crob/recover/1 -o ro mais j'ai le message Mount: unknown filesystem type ‘linux_raid_member’ En furetant je ne vois que 3 possibilités : 1-utiliser l'outil TestDisk (sick!) 2-mdadm --assemble --scan et voir ce qui se passe en essayant de monter les disques en LOOP 3- ne rien risquer et tenter autre chose ... mais quoi donc ?
  7. Bon, un petit UP svp j'ai besoin de vous ... RECAPITULATIF : Après une panne de courant, NAS inaccessible. Je réinstalle le système sur un autre disque SSD et hop. Sauf que : * Quand je branche tous les disques et que je démarre le DS3615xs, j'ai un premier message en me connectant en HTTP : "Votre système doit être migré" Je remets le fichier PAT correspondant à ma version, il s'installe et redémarre tout seul. Au redémarrage, la console XPEnoboot affiche les informations classiques, puis les lignes "updating file ..." jusqu'à la phase POST INIT. ==================== start udevd ===================== System is going to reboot. syslog-ng stop/waiting stop : unknown instance : system is not in ups safe mode kill-all-process start/running, process 19911 umount root [1] crond[19963] : crond (Busybox 1.16.1) started log level 8 umount : cannot umount /: device or resource busy umount fail, killall again NAS login : crond[20036] umount root[2] umount : cannot umount /: device or resource busy ... puis il reboote tout seul et me redemande sans cesse une MIGRATION. le cycle infernal. * Quand je ne branche pas tous les disques, le NAS est accessible en HTTP et me notifie simplement "VOLUME 2 : PANNE" (car il n'a pas tous les disques) Je ne suis pas plus avancé, le volume reste logiquement inaccessible, mais au moins j'ai accès au NAS ! QUE FAIRE ?
  8. Bonjour à tous, Je suis nouveau ici ... heureux possesseur jusque là d'un DS3615xs Xpeno, j'ai monté mon NAS progressivement et après une coupure de courant j'ai perdu l'accès ! J'ai essayé d'être le plus précis possible : 1°) structure physique : CM : Gigabyte UEFI dualbios B75N de 2013. (Bios Rev F4). - une clé USB 2.0 de BOOT Xpeno en 5.644 - un disque SSD 128 Go "système" - une carte multi SATA (12 ports) en PCI Express 4 - 13 disques WD-4 To RED NAS 10 disques branchés sur la carte, et 3 disques sur les ports SATA de la carte mère. Boot on : UEFI first, Legacy ensuite. SATA Mode = AHCI. xHCI enabled 2°) structure logique : avant CRASH : DSM 5.644 upd8 (je crois !!) sans backup de la config NB : Je suis resté dans cette version car le vendeur m'a dit que les versions supérieurs n'étaient pas gérés par le système physique. * NAS Xpenology DSM : DSM_DS3615xs_v5.644_5644.PAT (pas d'update 5 ou 8 de réalisé, après la reinstall je suis resté "de base" 5.644, téléchargement officiel) * Tous les 13 disques sont en SHR dans un seul volume. 3°) Faits accomplis : - Après reinstall de l'OS sur un nouveau disque SSD (je croyais que la partition était HS ...) - le volume 2 apparaît logiquement EN PANNE, car seuls 9 des 13 disques sont vus. - sur ces 9 devices détectés, seuls 2 sont fonctionnels, les 7 autres sont noté "ECHEC DE PARTITION" - j'ai testé unitairement les 13 disques durs sont bien alimentés en tension électrique. - je m'aperçois qu'une des 2 alimentations électriques de l'ensemble des disques est FAIBLARDE ... je pense que la tension n'est plus suffisante en bout de chaîne pour les derniers disques à alimenter. - j'installe 2 nouvelles alimentations électriques. J'ai maintenant A NOUVEAU les 13 disques dont 11 en "ECHEC DE PARTITION" et le volume inutilisable mais pas de possibilité de correction ... ? Je ne dirai qu'une chose : HELP Merci de vos lumières ^^
×
×
  • Create New...