Jump to content
XPEnology Community

Alandil

Member
  • Posts

    181
  • Joined

  • Last visited

Posts posted by Alandil

  1. Ce qui est curieux aussi c'est qu'on ne voit pas le disque sdh1 qui est pourtant présent avec la commande fdisk 🤔

     

    root@ubuntu:/# mdadm -E /dev/sd[g-h]1
    /dev/sdg1:
       MBR Magic : aa55
    Partition[0] :    432871117 sectors at   3224498923 (type 07)
    Partition[1] :   1953460034 sectors at   3272020941 (type 16)
    Partition[3] :    924335794 sectors at     50200576 (type 00)
    mdadm: No md superblock detected on /dev/sdh1.

     

    L'ensemble de ces disques ne m'a servi qu'à mon Xpenology et à mon Synology avant lui.

  2. root@ubuntu:/# mdadm -E /dev/sd[a-f]1
    mdadm: No md superblock detected on /dev/sda1.
    /dev/sdb1:
              Magic : a92b4efc
            Version : 0.90.00
               UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
      Creation Time : Mon May  4 15:42:26 2020
         Raid Level : raid1
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
         Array Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 16
      Total Devices : 7
    Preferred Minor : 0
    
        Update Time : Wed Apr  7 08:15:21 2021
              State : clean
     Active Devices : 7
    Working Devices : 7
     Failed Devices : 9
      Spare Devices : 0
           Checksum : 6bd905aa - correct
             Events : 6127801
    
    
          Number   Major   Minor   RaidDevice State
    this     1       8       17        1      active sync   /dev/sdb1
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       8       49        3      active sync   /dev/sdd1
       4     4       8       65        4      active sync   /dev/sde1
       5     5       8       81        5      active sync   /dev/sdf1
       6     6       8       97        6      active sync   /dev/sdg1
       7     7       0        0        7      faulty removed
       8     8       0        0        8      faulty removed
       9     9       0        0        9      faulty removed
      10    10       0        0       10      faulty removed
      11    11       0        0       11      faulty removed
      12    12       0        0       12      faulty removed
      13    13       0        0       13      faulty removed
      14    14       0        0       14      faulty removed
      15    15       0        0       15      faulty removed
    /dev/sdc1:
              Magic : a92b4efc
            Version : 0.90.00
               UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
      Creation Time : Mon May  4 15:42:26 2020
         Raid Level : raid1
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
         Array Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 16
      Total Devices : 7
    Preferred Minor : 0
    
        Update Time : Wed Apr  7 08:15:21 2021
              State : clean
     Active Devices : 7
    Working Devices : 7
     Failed Devices : 9
      Spare Devices : 0
           Checksum : 6bd905bc - correct
             Events : 6127801
    
    
          Number   Major   Minor   RaidDevice State
    this     2       8       33        2      active sync   /dev/sdc1
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       8       49        3      active sync   /dev/sdd1
       4     4       8       65        4      active sync   /dev/sde1
       5     5       8       81        5      active sync   /dev/sdf1
       6     6       8       97        6      active sync   /dev/sdg1
       7     7       0        0        7      faulty removed
       8     8       0        0        8      faulty removed
       9     9       0        0        9      faulty removed
      10    10       0        0       10      faulty removed
      11    11       0        0       11      faulty removed
      12    12       0        0       12      faulty removed
      13    13       0        0       13      faulty removed
      14    14       0        0       14      faulty removed
      15    15       0        0       15      faulty removed
    /dev/sdd1:
              Magic : a92b4efc
            Version : 0.90.00
               UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
      Creation Time : Mon May  4 15:42:26 2020
         Raid Level : raid1
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
         Array Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 16
      Total Devices : 7
    Preferred Minor : 0
    
        Update Time : Wed Apr  7 08:15:21 2021
              State : clean
     Active Devices : 7
    Working Devices : 7
     Failed Devices : 9
      Spare Devices : 0
           Checksum : 6bd905ce - correct
             Events : 6127801
    
    
          Number   Major   Minor   RaidDevice State
    this     3       8       49        3      active sync   /dev/sdd1
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       8       49        3      active sync   /dev/sdd1
       4     4       8       65        4      active sync   /dev/sde1
       5     5       8       81        5      active sync   /dev/sdf1
       6     6       8       97        6      active sync   /dev/sdg1
       7     7       0        0        7      faulty removed
       8     8       0        0        8      faulty removed
       9     9       0        0        9      faulty removed
      10    10       0        0       10      faulty removed
      11    11       0        0       11      faulty removed
      12    12       0        0       12      faulty removed
      13    13       0        0       13      faulty removed
      14    14       0        0       14      faulty removed
      15    15       0        0       15      faulty removed
    /dev/sde1:
              Magic : a92b4efc
            Version : 0.90.00
               UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
      Creation Time : Mon May  4 15:42:26 2020
         Raid Level : raid1
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
         Array Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 16
      Total Devices : 7
    Preferred Minor : 0
    
        Update Time : Wed Apr  7 08:15:21 2021
              State : clean
     Active Devices : 7
    Working Devices : 7
     Failed Devices : 9
      Spare Devices : 0
           Checksum : 6bd905e0 - correct
             Events : 6127801
    
    
          Number   Major   Minor   RaidDevice State
    this     4       8       65        4      active sync   /dev/sde1
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       8       49        3      active sync   /dev/sdd1
       4     4       8       65        4      active sync   /dev/sde1
       5     5       8       81        5      active sync   /dev/sdf1
       6     6       8       97        6      active sync   /dev/sdg1
       7     7       0        0        7      faulty removed
       8     8       0        0        8      faulty removed
       9     9       0        0        9      faulty removed
      10    10       0        0       10      faulty removed
      11    11       0        0       11      faulty removed
      12    12       0        0       12      faulty removed
      13    13       0        0       13      faulty removed
      14    14       0        0       14      faulty removed
      15    15       0        0       15      faulty removed
    /dev/sdf1:
              Magic : a92b4efc
            Version : 0.90.00
               UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
      Creation Time : Mon May  4 15:42:26 2020
         Raid Level : raid1
      Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
         Array Size : 2490176 (2.37 GiB 2.55 GB)
       Raid Devices : 16
      Total Devices : 7
    Preferred Minor : 0
    
        Update Time : Wed Apr  7 08:15:21 2021
              State : clean
     Active Devices : 7
    Working Devices : 7
     Failed Devices : 9
      Spare Devices : 0
           Checksum : 6bd905f2 - correct
             Events : 6127801
    
    
          Number   Major   Minor   RaidDevice State
    this     5       8       81        5      active sync   /dev/sdf1
    
       0     0       8        1        0      active sync   /dev/sda1
       1     1       8       17        1      active sync   /dev/sdb1
       2     2       8       33        2      active sync   /dev/sdc1
       3     3       8       49        3      active sync   /dev/sdd1
       4     4       8       65        4      active sync   /dev/sde1
       5     5       8       81        5      active sync   /dev/sdf1
       6     6       8       97        6      active sync   /dev/sdg1
       7     7       0        0        7      faulty removed
       8     8       0        0        8      faulty removed
       9     9       0        0        9      faulty removed
      10    10       0        0       10      faulty removed
      11    11       0        0       11      faulty removed
      12    12       0        0       12      faulty removed
      13    13       0        0       13      faulty removed
      14    14       0        0       14      faulty removed
      15    15       0        0       15      faulty removed

     

  3. Voici @JacquesF

    root@ubuntu:/# mount
    sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
    proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
    udev on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=7974360k,nr_inodes=1993590,mode=755)
    devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
    tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755)
    /dev/sdg1 on /cdrom type vfat (ro,noatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
    /dev/loop0 on /rofs type squashfs (ro,noatime)
    /cow on / type overlay (rw,relatime,lowerdir=/filesystem.squashfs,upperdir=/cow/upper,workdir=/cow/work)
    securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
    tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
    tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
    tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
    cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime,nsdelegate)
    cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
    pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
    efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
    none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
    cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
    cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
    cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
    cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
    cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
    cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
    cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
    cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
    cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
    cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
    cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
    systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=28,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=19627)
    mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
    hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
    debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
    tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
    configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
    fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
    tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime)
    /var/lib/snapd/snaps/snap-store_518.snap on /snap/snap-store/518 type squashfs (ro,nodev,relatime,x-gdu.hide)
    /var/lib/snapd/snaps/gnome-3-34-1804_66.snap on /snap/gnome-3-34-1804/66 type squashfs (ro,nodev,relatime,x-gdu.hide)
    /var/lib/snapd/snaps/core18_1988.snap on /snap/core18/1988 type squashfs (ro,nodev,relatime,x-gdu.hide)
    /var/lib/snapd/snaps/snapd_11036.snap on /snap/snapd/11036 type squashfs (ro,nodev,relatime,x-gdu.hide)
    /var/lib/snapd/snaps/gtk-common-themes_1514.snap on /snap/gtk-common-themes/1514 type squashfs (ro,nodev,relatime,x-gdu.hide)
    tmpfs on /run/user/999 type tmpfs (rw,nosuid,nodev,relatime,size=1604920k,mode=700,uid=999,gid=999)
    gvfsd-fuse on /run/user/999/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999)
    tmpfs on /run/snapd/ns type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755)
    nsfs on /run/snapd/ns/snap-store.mnt type nsfs (rw)
    /dev/fuse on /run/user/999/doc type fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999)

     

  4. il y a 3 minutes, JacquesF a dit :

    J'ai modifié ma réponse ci-dessus, regarde si tu es concerné

    J'ai été trop rapide par rapport à ta précédente réponse ;)

     

    Alors j'obtiens ceci sur la première commande que tu me demandes :

    root@ubuntu:/# mount | grep /dev/m
    mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)

    Je comprends que je dois modifier ma commande mais avec quoi ?!

     

    J'obtiens ceci avec l'autre commande :

    root@ubuntu:/# mount -t ext4 /dev/md0 /mnt/dsm
    mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

    Ce qui est sensiblement identique à la précédente.

     

    Voilà ce que j'obtiens :

    root@ubuntu:/# cat /proc/mdstat
    Personalities : [raid1] [raid6] [raid5] [raid4] 
    md2 : active raid5 sda5[0] sdh5[7] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
          35134148736 blocks super 1.2 level 5, 64k chunk, algorithm 2 [7/7] [UUUUUUU]
          
    md4 : active raid1 sdi1[0] sdj1[1]
          488381952 blocks super 1.2 [2/2] [UU]
          
    md0 : active raid1 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
          2490176 blocks [16/6] [UUUUUU__________]
          
    md3 : active raid1 sda6[0] sdb6[1]
          3905898432 blocks super 1.2 [2/2] [UU]
          
    unused devices: <none>

     

  5. @JacquesF

    il y a 5 minutes, JacquesF a dit :

    mount /dev/md0 /mnt/nas

    Je pense que tu voulais dire :

    mount /dev/md0 /mnt/dsm

     

    J'obtiens cette erreur...

    root@ubuntu:/# mount /dev/md0 /mnt/dsm
    mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

     

  6. Bonjour @JacquesF

     

    Merci de prendre le temps de m'aider.

     

    1 - J'ai ce message quand je réalise l'opération 8 du tuto 

    à savoir :

    Finally, assemble the array and fix the byte order (this is for my case, with 2 drives):

    mdadm -AU byteorder /dev/md0 /dev/sda1 /dev/sdb1

     

    2 - Tu me demandes si mes disques sont connectés physiquement ? C'est le cas. Reconnu par l'USB Live ? je le pense. 

     

    root@ubuntu:/# fdisk -l | grep /dev/sd
    Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
    /dev/sda1           2048     4982527     4980480   2,4G RAID Linux
    /dev/sda2        4982528     9176831     4194304     2G RAID Linux
    /dev/sda5        9453280 11720838239 11711384960   5,5T RAID Linux
    /dev/sda6    11720854336 19532653311  7811798976   3,7T RAID Linux
    Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    /dev/sdf1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdf2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdf5    9453280 11720838239 11711384960   5,5T RAID Linux
    Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
    /dev/sdb1           2048     4982527     4980480   2,4G RAID Linux
    /dev/sdb2        4982528     9176831     4194304     2G RAID Linux
    /dev/sdb5        9453280 11720838239 11711384960   5,5T RAID Linux
    /dev/sdb6    11720854336 19532653311  7811798976   3,7T RAID Linux
    Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    /dev/sdd1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdd2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdd5    9453280 11720838239 11711384960   5,5T RAID Linux
    Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    /dev/sde1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sde2    4982528     9176831     4194304     2G RAID Linux
    /dev/sde5    9453280 11720838239 11711384960   5,5T RAID Linux
    Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    /dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdc2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdc5    9453280 11720838239 11711384960   5,5T RAID Linux
    Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs
    /dev/sdg1    *         2048 15974399 15972352   7,6G  c W95 FAT32 (LBA)
    Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs
    /dev/sdi1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
    Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs
    /dev/sdj1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
    Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    /dev/sdh1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdh2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdh5    9453280 11720838239 11711384960   5,5T RAID Linux

     

    J'ai bien 7 disques de stockage (a, b, c, d, e, f et h), une clé USB Live (disque g) et 2 disques pour le cache (i et j).

     

    3 - je n'ai aucune erreur avec la commande 

    mdadm -Asf && vgchange -ay

     

    4 - Voici le résultat des commandes que tu m'as demandé de réaliser

    root@ubuntu:/# blkid
    /dev/sda1: PARTUUID="41cf7fd0-bd67-4152-8253-4850a1c93160"
    /dev/sda5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="2ccbcc25-59aa-4580-40d4-c07054deb89d" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="34d5089f-6b90-4f10-9e21-9c60efee9973"
    /dev/sda6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="2e33e895-9e7a-b6b6-9399-0f9d8bf68c96" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="77852370-065e-4d61-9c1f-0bb2d0742aa9"
    /dev/sdb1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="82eae24e-64c6-4255-a1a1-933774a47e64"
    /dev/sdb5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="03be1d49-0248-ccd6-1e9a-7c397cd0e6d5" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="67382d2a-c68f-4253-b73c-a8adbc14583e"
    /dev/sdb6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="516df4d5-330a-5ffc-61e8-a752b8cfa819" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="6a03d12e-4c09-45dc-8263-7a04d23a62ce"
    /dev/sdc1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9cafacca-efc9-49f6-8890-f91ca1ecbecb"
    /dev/sdc5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="1f373b77-4038-6185-ce5c-8b65aa5219f8" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="46325df7-e5bd-4400-b2e6-76ee21fae78d"
    /dev/sdd1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="f2661af2-db89-4b8f-bf48-4fac0f06787f"
    /dev/sdd5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="5ae86e74-4f6e-0cdc-9f2e-d17c5bfe21cb" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="c71881c7-c627-4301-afcc-770141e84649"
    /dev/sde1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="39c25baa-bbce-4c0f-9cef-7a135a7014a1"
    /dev/sde5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="7a302bf2-3e49-4eed-2559-850d5d510ba4" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="16a43392-e406-47b1-8722-f2c7407cb0af"
    /dev/sdf1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="eca249ef-7f6b-4890-a4a6-f367fc4ee50e"
    /dev/sdf5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="68958a48-cce4-8701-cfda-ee08a78ab62f" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="55abce45-00bb-4f61-8870-deca3b76bf5d"
    /dev/sdg1: LABEL="UBUNTU 20_0" UUID="AABD-0094" TYPE="vfat" PARTUUID="22525053-01"
    /dev/loop0: TYPE="squashfs"
    /dev/loop1: TYPE="squashfs"
    /dev/loop2: TYPE="squashfs"
    /dev/loop3: TYPE="squashfs"
    /dev/loop4: TYPE="squashfs"
    /dev/loop5: TYPE="squashfs"
    /dev/sda2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="1068479d-8496-4b4d-b15f-032edc3e9b28"
    /dev/sdf2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="905f11e9-5cdc-4978-bec4-b0a340bc8e50"
    /dev/sdb2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="b69aa535-9806-44a2-a021-ecc7e7e3a101"
    /dev/sdd2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e47407c1-4547-4a41-97ee-bcc7e95a292a"
    /dev/sde2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="41de7299-08fa-41a8-9d9e-5e77a57cdace"
    /dev/sdc2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="0ddee1c7-337d-4ce4-90ab-5a0ad0671bf1"
    /dev/sdi1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="2452e62a-e02d-0da7-dd08-710497da9541" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="202d6f19-01"
    /dev/sdj1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="d91e06e5-5f4d-8d76-9770-9f9941f4349b" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="1ded4186-01"
    /dev/sdh1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="4c884ad5-b4ce-41cd-b68a-c3124401d86c"
    /dev/sdh2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e7ba4093-9204-4e48-bd27-8d554908d0eb"
    /dev/sdh5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="df5c6e01-7d73-c21e-99df-7eca5cef6e60" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="7595553a-6a70-43e5-a02b-9d1e6984498d"
    /dev/md3: UUID="WgFywH-9l21-XASj-wJep-BM3z-HowW-d3rvfn" TYPE="LVM2_member"
    /dev/md2: UUID="6es8uK-yH65-DGzj-qzJj-dxW2-QBYg-uCY4wN" TYPE="LVM2_member"
    /dev/mapper/vg1000-lv: LABEL="2020.05.04-16:34:17 v24922" UUID="8347c7d0-87bc-40db-8204-acc930013969" UUID_SUB="4e214011-1024-40b1-8c3b-e89d35b0917d" TYPE="btrfs"

     

    root@ubuntu:/# fdisk -l
    Disque /dev/loop0 : 1,99 GiB, 2109763584 octets, 4120632 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/loop1 : 55,48 MiB, 58159104 octets, 113592 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/loop2 : 218,102 MiB, 229629952 octets, 448496 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/loop3 : 51,4 MiB, 53522432 octets, 104536 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/loop4 : 31,9 MiB, 32595968 octets, 63664 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/loop5 : 64,79 MiB, 67915776 octets, 132648 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    
    
    Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
    Disk model: ST10000VN0004-1Z
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : E7F75365-30F8-4149-B570-CFB4467923F3
    
    Périphérique       Début         Fin    Secteurs Taille Type
    /dev/sda1           2048     4982527     4980480   2,4G RAID Linux
    /dev/sda2        4982528     9176831     4194304     2G RAID Linux
    /dev/sda5        9453280 11720838239 11711384960   5,5T RAID Linux
    /dev/sda6    11720854336 19532653311  7811798976   3,7T RAID Linux
    
    
    Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    Disk model: WDC WD60EFRX-68L
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : CB508E68-6A35-4908-A6C1-34DA17ECCC3C
    
    Périphérique   Début         Fin    Secteurs Taille Type
    /dev/sdf1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdf2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdf5    9453280 11720838239 11711384960   5,5T RAID Linux
    
    
    Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
    Disk model: ST10000VN0004-1Z
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : FAD8B62B-29FC-4872-A084-82C75185509E
    
    Périphérique       Début         Fin    Secteurs Taille Type
    /dev/sdb1           2048     4982527     4980480   2,4G RAID Linux
    /dev/sdb2        4982528     9176831     4194304     2G RAID Linux
    /dev/sdb5        9453280 11720838239 11711384960   5,5T RAID Linux
    /dev/sdb6    11720854336 19532653311  7811798976   3,7T RAID Linux
    
    
    Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    Disk model: WDC WD60EFRX-68L
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : F03B41BC-9C6E-4706-857D-B517112D25A0
    
    Périphérique   Début         Fin    Secteurs Taille Type
    /dev/sdd1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdd2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdd5    9453280 11720838239 11711384960   5,5T RAID Linux
    
    
    Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    Disk model: WDC WD60EFRX-68L
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : 2E9D72A2-9C28-4CE0-927D-30D2FD424770
    
    Périphérique   Début         Fin    Secteurs Taille Type
    /dev/sde1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sde2    4982528     9176831     4194304     2G RAID Linux
    /dev/sde5    9453280 11720838239 11711384960   5,5T RAID Linux
    
    
    Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    Disk model: WDC WD60EFRX-68L
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : BF41A830-908D-463A-B191-6E78D1F0187F
    
    Périphérique   Début         Fin    Secteurs Taille Type
    /dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdc2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdc5    9453280 11720838239 11711384960   5,5T RAID Linux
    
    
    Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs
    Disk model: USB DISK        
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    Type d'étiquette de disque : dos
    Identifiant de disque : 0x22525053
    
    Périphérique Amorçage Début      Fin Secteurs Taille Id Type
    /dev/sdg1    *         2048 15974399 15972352   7,6G  c W95 FAT32 (LBA)
    
    
    Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs
    Disk model: CT500MX500SSD1  
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 512 octets
    taille d'E/S (minimale / optimale) : 512 octets / 512 octets
    Type d'étiquette de disque : dos
    Identifiant de disque : 0x202d6f19
    
    Périphérique Amorçage Début       Fin  Secteurs Taille Id Type
    /dev/sdi1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
    
    
    Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs
    Disk model: CT500MX500SSD1  
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : dos
    Identifiant de disque : 0x1ded4186
    
    Périphérique Amorçage Début       Fin  Secteurs Taille Id Type
    /dev/sdj1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
    
    
    Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
    Disk model: WDC WD60EFRX-68M
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    Type d'étiquette de disque : gpt
    Identifiant de disque : 420630F8-C753-4D72-8863-072D0FB98D7B
    
    Périphérique   Début         Fin    Secteurs Taille Type
    /dev/sdh1       2048     4982527     4980480   2,4G RAID Linux
    /dev/sdh2    4982528     9176831     4194304     2G RAID Linux
    /dev/sdh5    9453280 11720838239 11711384960   5,5T RAID Linux
    
    
    Disque /dev/md3 : 3,65 TiB, 3999639994368 octets, 7811796864 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    
    
    Disque /dev/md0 : 2,38 GiB, 2549940224 octets, 4980352 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    
    
    Disque /dev/md4 : 465,78 GiB, 500103118848 octets, 976763904 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
    
    
    Disque /dev/md2 : 32,74 TiB, 35977368305664 octets, 70268297472 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets
    
    
    Disque /dev/mapper/vg1000-lv : 36,37 TiB, 39977001943040 octets, 78080081920 secteurs
    Unités : secteur de 1 × 512 = 512 octets
    Taille de secteur (logique / physique) : 512 octets / 4096 octets
    taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets

     

    mount | grep /dev/sd | sort

    Pas de retour suite à la dernière commande.

  7. Il y a 21 heures, Alandil a dit :

    Salut,

     

    Mes disques sont SHR. J'ai tenté d'aller au bout mais je n'ai pas réussi. J'ai comme je te le disais un message qui me dit "assembly aborted"

     

    Après je ne sais pas comment accéder au différent fichier VERSION..

     

    Je suis complètement largué...

     

    @Polanskiman pourrais-tu m'aider ?

    Or @IG-88 ? Can you help me to downgrade ? 

  8. Salut,

     

    Mes disques sont SHR. J'ai tenté d'aller au bout mais je n'ai pas réussi. J'ai comme je te le disais un message qui me dit "assembly aborted"

     

    Après je ne sais pas comment accéder au différent fichier VERSION..

     

    Je suis complètement largué...

     

    @Polanskiman pourrais-tu m'aider ?

  9. @EVOTk 

     

    Bon j'ai fait suivi le tuto 

    Il y a 1 heure, EVOTk a dit :

    Tu accede au disque/volume a l'aide de cette explication : https://xpenology.com/forum/topic/7004-tutorial-how-to-access-dsms-data-system-partitions/

     

    Mais sur la dernière commande j'ai :

    no super block found on /dev/sda1 puis assembly aborted

     

    Je le sens mal là ^^

     

    Pour être sûr que cela n'a pas marché, comment j'accède au fichier version de chaque disque ? Je ne trouve pas le chemin d'accès

  10. Salut @EVOTk

     

    J'ai besoin d'un peu d'aide pour la compréhension...

     

    Je suis juste cela :

     

    1. SSH into your NAS

    2. Log On with your Admin/Root Account or User Account

    3. If User Account then type sudo -i and enter the Admin/Root Password

    4. Type ls -la /

    5. You should see a folder called .xpenoboot

    6. sudo rm -rf /.xpenoboot

    7. Type ls -la / to check it is removed

    8. Reboot your NAS by typing reboot

     

    Où je dois faire autre chose ? Pas évident de suivre son explication ^^

  11. Bonjour @nicoueron @EVOTk

     

    Bon j'ai fait le noob... Je n'ai pas regardé le forum avant de tenter l'upgrade en 6.2.4.25556... Résultat ? DSM innaccessible... Comment je peux restaurer mon DSM sans perdre mes données ? J'ai tenté de restaurer une sauvegarde de ma clé USB. J'ai réussi à détecter la restauration avec Synology Assistant. Celui-ci a tenté de rétablir le système mais cela a échoué. Depuis le redémarrage, je ne détecte plus rien...

     

    Je le sens mal ce coup-là...

×
×
  • Create New...