Jump to content
XPEnology Community

Alandil

Member
  • Posts

    181
  • Joined

  • Last visited

Everything posted by Alandil

  1. Si tu trouves mdadm trop dangereuse, je peux utiliser une autre commande si tu me la communiques Oui il s'agit d'un Ubuntu USB Live et non un CD. Effectivement, il n'existe pas de fichier conf pour mdadm
  2. Ce qui est curieux aussi c'est qu'on ne voit pas le disque sdh1 qui est pourtant présent avec la commande fdisk 🤔 root@ubuntu:/# mdadm -E /dev/sd[g-h]1 /dev/sdg1: MBR Magic : aa55 Partition[0] : 432871117 sectors at 3224498923 (type 07) Partition[1] : 1953460034 sectors at 3272020941 (type 16) Partition[3] : 924335794 sectors at 50200576 (type 00) mdadm: No md superblock detected on /dev/sdh1. L'ensemble de ces disques ne m'a servi qu'à mon Xpenology et à mon Synology avant lui.
  3. root@ubuntu:/# mdadm -E /dev/sd[a-f]1 mdadm: No md superblock detected on /dev/sda1. /dev/sdb1: Magic : a92b4efc Version : 0.90.00 UUID : 227019f5:e7c13ffe:3017a5a8:c86610be Creation Time : Mon May 4 15:42:26 2020 Raid Level : raid1 Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Array Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 16 Total Devices : 7 Preferred Minor : 0 Update Time : Wed Apr 7 08:15:21 2021 State : clean Active Devices : 7 Working Devices : 7 Failed Devices : 9 Spare Devices : 0 Checksum : 6bd905aa - correct Events : 6127801 Number Major Minor RaidDevice State this 1 8 17 1 active sync /dev/sdb1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 8 33 2 active sync /dev/sdc1 3 3 8 49 3 active sync /dev/sdd1 4 4 8 65 4 active sync /dev/sde1 5 5 8 81 5 active sync /dev/sdf1 6 6 8 97 6 active sync /dev/sdg1 7 7 0 0 7 faulty removed 8 8 0 0 8 faulty removed 9 9 0 0 9 faulty removed 10 10 0 0 10 faulty removed 11 11 0 0 11 faulty removed 12 12 0 0 12 faulty removed 13 13 0 0 13 faulty removed 14 14 0 0 14 faulty removed 15 15 0 0 15 faulty removed /dev/sdc1: Magic : a92b4efc Version : 0.90.00 UUID : 227019f5:e7c13ffe:3017a5a8:c86610be Creation Time : Mon May 4 15:42:26 2020 Raid Level : raid1 Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Array Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 16 Total Devices : 7 Preferred Minor : 0 Update Time : Wed Apr 7 08:15:21 2021 State : clean Active Devices : 7 Working Devices : 7 Failed Devices : 9 Spare Devices : 0 Checksum : 6bd905bc - correct Events : 6127801 Number Major Minor RaidDevice State this 2 8 33 2 active sync /dev/sdc1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 8 33 2 active sync /dev/sdc1 3 3 8 49 3 active sync /dev/sdd1 4 4 8 65 4 active sync /dev/sde1 5 5 8 81 5 active sync /dev/sdf1 6 6 8 97 6 active sync /dev/sdg1 7 7 0 0 7 faulty removed 8 8 0 0 8 faulty removed 9 9 0 0 9 faulty removed 10 10 0 0 10 faulty removed 11 11 0 0 11 faulty removed 12 12 0 0 12 faulty removed 13 13 0 0 13 faulty removed 14 14 0 0 14 faulty removed 15 15 0 0 15 faulty removed /dev/sdd1: Magic : a92b4efc Version : 0.90.00 UUID : 227019f5:e7c13ffe:3017a5a8:c86610be Creation Time : Mon May 4 15:42:26 2020 Raid Level : raid1 Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Array Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 16 Total Devices : 7 Preferred Minor : 0 Update Time : Wed Apr 7 08:15:21 2021 State : clean Active Devices : 7 Working Devices : 7 Failed Devices : 9 Spare Devices : 0 Checksum : 6bd905ce - correct Events : 6127801 Number Major Minor RaidDevice State this 3 8 49 3 active sync /dev/sdd1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 8 33 2 active sync /dev/sdc1 3 3 8 49 3 active sync /dev/sdd1 4 4 8 65 4 active sync /dev/sde1 5 5 8 81 5 active sync /dev/sdf1 6 6 8 97 6 active sync /dev/sdg1 7 7 0 0 7 faulty removed 8 8 0 0 8 faulty removed 9 9 0 0 9 faulty removed 10 10 0 0 10 faulty removed 11 11 0 0 11 faulty removed 12 12 0 0 12 faulty removed 13 13 0 0 13 faulty removed 14 14 0 0 14 faulty removed 15 15 0 0 15 faulty removed /dev/sde1: Magic : a92b4efc Version : 0.90.00 UUID : 227019f5:e7c13ffe:3017a5a8:c86610be Creation Time : Mon May 4 15:42:26 2020 Raid Level : raid1 Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Array Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 16 Total Devices : 7 Preferred Minor : 0 Update Time : Wed Apr 7 08:15:21 2021 State : clean Active Devices : 7 Working Devices : 7 Failed Devices : 9 Spare Devices : 0 Checksum : 6bd905e0 - correct Events : 6127801 Number Major Minor RaidDevice State this 4 8 65 4 active sync /dev/sde1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 8 33 2 active sync /dev/sdc1 3 3 8 49 3 active sync /dev/sdd1 4 4 8 65 4 active sync /dev/sde1 5 5 8 81 5 active sync /dev/sdf1 6 6 8 97 6 active sync /dev/sdg1 7 7 0 0 7 faulty removed 8 8 0 0 8 faulty removed 9 9 0 0 9 faulty removed 10 10 0 0 10 faulty removed 11 11 0 0 11 faulty removed 12 12 0 0 12 faulty removed 13 13 0 0 13 faulty removed 14 14 0 0 14 faulty removed 15 15 0 0 15 faulty removed /dev/sdf1: Magic : a92b4efc Version : 0.90.00 UUID : 227019f5:e7c13ffe:3017a5a8:c86610be Creation Time : Mon May 4 15:42:26 2020 Raid Level : raid1 Used Dev Size : 2490176 (2.37 GiB 2.55 GB) Array Size : 2490176 (2.37 GiB 2.55 GB) Raid Devices : 16 Total Devices : 7 Preferred Minor : 0 Update Time : Wed Apr 7 08:15:21 2021 State : clean Active Devices : 7 Working Devices : 7 Failed Devices : 9 Spare Devices : 0 Checksum : 6bd905f2 - correct Events : 6127801 Number Major Minor RaidDevice State this 5 8 81 5 active sync /dev/sdf1 0 0 8 1 0 active sync /dev/sda1 1 1 8 17 1 active sync /dev/sdb1 2 2 8 33 2 active sync /dev/sdc1 3 3 8 49 3 active sync /dev/sdd1 4 4 8 65 4 active sync /dev/sde1 5 5 8 81 5 active sync /dev/sdf1 6 6 8 97 6 active sync /dev/sdg1 7 7 0 0 7 faulty removed 8 8 0 0 8 faulty removed 9 9 0 0 9 faulty removed 10 10 0 0 10 faulty removed 11 11 0 0 11 faulty removed 12 12 0 0 12 faulty removed 13 13 0 0 13 faulty removed 14 14 0 0 14 faulty removed 15 15 0 0 15 faulty removed
  4. Voici @JacquesF root@ubuntu:/# mount sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime) proc on /proc type proc (rw,nosuid,nodev,noexec,relatime) udev on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=7974360k,nr_inodes=1993590,mode=755) devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755) /dev/sdg1 on /cdrom type vfat (ro,noatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro) /dev/loop0 on /rofs type squashfs (ro,noatime) /cow on / type overlay (rw,relatime,lowerdir=/filesystem.squashfs,upperdir=/cow/upper,workdir=/cow/work) securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime) tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev) tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k) tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755) cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime,nsdelegate) cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd) pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime) efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime) none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700) cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct) cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio) cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids) cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio) cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset) cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb) cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma) cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer) cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory) cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event) cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices) systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=28,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=19627) mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime) hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M) debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime) tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime) configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime) fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime) tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime) /var/lib/snapd/snaps/snap-store_518.snap on /snap/snap-store/518 type squashfs (ro,nodev,relatime,x-gdu.hide) /var/lib/snapd/snaps/gnome-3-34-1804_66.snap on /snap/gnome-3-34-1804/66 type squashfs (ro,nodev,relatime,x-gdu.hide) /var/lib/snapd/snaps/core18_1988.snap on /snap/core18/1988 type squashfs (ro,nodev,relatime,x-gdu.hide) /var/lib/snapd/snaps/snapd_11036.snap on /snap/snapd/11036 type squashfs (ro,nodev,relatime,x-gdu.hide) /var/lib/snapd/snaps/gtk-common-themes_1514.snap on /snap/gtk-common-themes/1514 type squashfs (ro,nodev,relatime,x-gdu.hide) tmpfs on /run/user/999 type tmpfs (rw,nosuid,nodev,relatime,size=1604920k,mode=700,uid=999,gid=999) gvfsd-fuse on /run/user/999/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999) tmpfs on /run/snapd/ns type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755) nsfs on /run/snapd/ns/snap-store.mnt type nsfs (rw) /dev/fuse on /run/user/999/doc type fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999)
  5. J'ai été trop rapide par rapport à ta précédente réponse Alors j'obtiens ceci sur la première commande que tu me demandes : root@ubuntu:/# mount | grep /dev/m mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime) Je comprends que je dois modifier ma commande mais avec quoi ?! J'obtiens ceci avec l'autre commande : root@ubuntu:/# mount -t ext4 /dev/md0 /mnt/dsm mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error. Ce qui est sensiblement identique à la précédente. Voilà ce que j'obtiens : root@ubuntu:/# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md2 : active raid5 sda5[0] sdh5[7] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1] 35134148736 blocks super 1.2 level 5, 64k chunk, algorithm 2 [7/7] [UUUUUUU] md4 : active raid1 sdi1[0] sdj1[1] 488381952 blocks super 1.2 [2/2] [UU] md0 : active raid1 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1] 2490176 blocks [16/6] [UUUUUU__________] md3 : active raid1 sda6[0] sdb6[1] 3905898432 blocks super 1.2 [2/2] [UU] unused devices: <none>
  6. @JacquesF Je pense que tu voulais dire : mount /dev/md0 /mnt/dsm J'obtiens cette erreur... root@ubuntu:/# mount /dev/md0 /mnt/dsm mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.
  7. Bonjour @JacquesF Merci de prendre le temps de m'aider. 1 - J'ai ce message quand je réalise l'opération 8 du tuto à savoir : Finally, assemble the array and fix the byte order (this is for my case, with 2 drives): mdadm -AU byteorder /dev/md0 /dev/sda1 /dev/sdb1 2 - Tu me demandes si mes disques sont connectés physiquement ? C'est le cas. Reconnu par l'USB Live ? je le pense. root@ubuntu:/# fdisk -l | grep /dev/sd Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs /dev/sda1 2048 4982527 4980480 2,4G RAID Linux /dev/sda2 4982528 9176831 4194304 2G RAID Linux /dev/sda5 9453280 11720838239 11711384960 5,5T RAID Linux /dev/sda6 11720854336 19532653311 7811798976 3,7T RAID Linux Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs /dev/sdf1 2048 4982527 4980480 2,4G RAID Linux /dev/sdf2 4982528 9176831 4194304 2G RAID Linux /dev/sdf5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs /dev/sdb1 2048 4982527 4980480 2,4G RAID Linux /dev/sdb2 4982528 9176831 4194304 2G RAID Linux /dev/sdb5 9453280 11720838239 11711384960 5,5T RAID Linux /dev/sdb6 11720854336 19532653311 7811798976 3,7T RAID Linux Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs /dev/sdd1 2048 4982527 4980480 2,4G RAID Linux /dev/sdd2 4982528 9176831 4194304 2G RAID Linux /dev/sdd5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs /dev/sde1 2048 4982527 4980480 2,4G RAID Linux /dev/sde2 4982528 9176831 4194304 2G RAID Linux /dev/sde5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs /dev/sdc1 2048 4982527 4980480 2,4G RAID Linux /dev/sdc2 4982528 9176831 4194304 2G RAID Linux /dev/sdc5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs /dev/sdg1 * 2048 15974399 15972352 7,6G c W95 FAT32 (LBA) Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs /dev/sdi1 2048 976768064 976766017 465,8G fd RAID Linux autodétecté Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs /dev/sdj1 2048 976768064 976766017 465,8G fd RAID Linux autodétecté Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs /dev/sdh1 2048 4982527 4980480 2,4G RAID Linux /dev/sdh2 4982528 9176831 4194304 2G RAID Linux /dev/sdh5 9453280 11720838239 11711384960 5,5T RAID Linux J'ai bien 7 disques de stockage (a, b, c, d, e, f et h), une clé USB Live (disque g) et 2 disques pour le cache (i et j). 3 - je n'ai aucune erreur avec la commande mdadm -Asf && vgchange -ay 4 - Voici le résultat des commandes que tu m'as demandé de réaliser root@ubuntu:/# blkid /dev/sda1: PARTUUID="41cf7fd0-bd67-4152-8253-4850a1c93160" /dev/sda5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="2ccbcc25-59aa-4580-40d4-c07054deb89d" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="34d5089f-6b90-4f10-9e21-9c60efee9973" /dev/sda6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="2e33e895-9e7a-b6b6-9399-0f9d8bf68c96" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="77852370-065e-4d61-9c1f-0bb2d0742aa9" /dev/sdb1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="82eae24e-64c6-4255-a1a1-933774a47e64" /dev/sdb5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="03be1d49-0248-ccd6-1e9a-7c397cd0e6d5" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="67382d2a-c68f-4253-b73c-a8adbc14583e" /dev/sdb6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="516df4d5-330a-5ffc-61e8-a752b8cfa819" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="6a03d12e-4c09-45dc-8263-7a04d23a62ce" /dev/sdc1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9cafacca-efc9-49f6-8890-f91ca1ecbecb" /dev/sdc5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="1f373b77-4038-6185-ce5c-8b65aa5219f8" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="46325df7-e5bd-4400-b2e6-76ee21fae78d" /dev/sdd1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="f2661af2-db89-4b8f-bf48-4fac0f06787f" /dev/sdd5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="5ae86e74-4f6e-0cdc-9f2e-d17c5bfe21cb" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="c71881c7-c627-4301-afcc-770141e84649" /dev/sde1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="39c25baa-bbce-4c0f-9cef-7a135a7014a1" /dev/sde5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="7a302bf2-3e49-4eed-2559-850d5d510ba4" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="16a43392-e406-47b1-8722-f2c7407cb0af" /dev/sdf1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="eca249ef-7f6b-4890-a4a6-f367fc4ee50e" /dev/sdf5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="68958a48-cce4-8701-cfda-ee08a78ab62f" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="55abce45-00bb-4f61-8870-deca3b76bf5d" /dev/sdg1: LABEL="UBUNTU 20_0" UUID="AABD-0094" TYPE="vfat" PARTUUID="22525053-01" /dev/loop0: TYPE="squashfs" /dev/loop1: TYPE="squashfs" /dev/loop2: TYPE="squashfs" /dev/loop3: TYPE="squashfs" /dev/loop4: TYPE="squashfs" /dev/loop5: TYPE="squashfs" /dev/sda2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="1068479d-8496-4b4d-b15f-032edc3e9b28" /dev/sdf2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="905f11e9-5cdc-4978-bec4-b0a340bc8e50" /dev/sdb2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="b69aa535-9806-44a2-a021-ecc7e7e3a101" /dev/sdd2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e47407c1-4547-4a41-97ee-bcc7e95a292a" /dev/sde2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="41de7299-08fa-41a8-9d9e-5e77a57cdace" /dev/sdc2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="0ddee1c7-337d-4ce4-90ab-5a0ad0671bf1" /dev/sdi1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="2452e62a-e02d-0da7-dd08-710497da9541" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="202d6f19-01" /dev/sdj1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="d91e06e5-5f4d-8d76-9770-9f9941f4349b" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="1ded4186-01" /dev/sdh1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="4c884ad5-b4ce-41cd-b68a-c3124401d86c" /dev/sdh2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e7ba4093-9204-4e48-bd27-8d554908d0eb" /dev/sdh5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="df5c6e01-7d73-c21e-99df-7eca5cef6e60" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="7595553a-6a70-43e5-a02b-9d1e6984498d" /dev/md3: UUID="WgFywH-9l21-XASj-wJep-BM3z-HowW-d3rvfn" TYPE="LVM2_member" /dev/md2: UUID="6es8uK-yH65-DGzj-qzJj-dxW2-QBYg-uCY4wN" TYPE="LVM2_member" /dev/mapper/vg1000-lv: LABEL="2020.05.04-16:34:17 v24922" UUID="8347c7d0-87bc-40db-8204-acc930013969" UUID_SUB="4e214011-1024-40b1-8c3b-e89d35b0917d" TYPE="btrfs" root@ubuntu:/# fdisk -l Disque /dev/loop0 : 1,99 GiB, 2109763584 octets, 4120632 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/loop1 : 55,48 MiB, 58159104 octets, 113592 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/loop2 : 218,102 MiB, 229629952 octets, 448496 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/loop3 : 51,4 MiB, 53522432 octets, 104536 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/loop4 : 31,9 MiB, 32595968 octets, 63664 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/loop5 : 64,79 MiB, 67915776 octets, 132648 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs Disk model: ST10000VN0004-1Z Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : E7F75365-30F8-4149-B570-CFB4467923F3 Périphérique Début Fin Secteurs Taille Type /dev/sda1 2048 4982527 4980480 2,4G RAID Linux /dev/sda2 4982528 9176831 4194304 2G RAID Linux /dev/sda5 9453280 11720838239 11711384960 5,5T RAID Linux /dev/sda6 11720854336 19532653311 7811798976 3,7T RAID Linux Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs Disk model: WDC WD60EFRX-68L Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : CB508E68-6A35-4908-A6C1-34DA17ECCC3C Périphérique Début Fin Secteurs Taille Type /dev/sdf1 2048 4982527 4980480 2,4G RAID Linux /dev/sdf2 4982528 9176831 4194304 2G RAID Linux /dev/sdf5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs Disk model: ST10000VN0004-1Z Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : FAD8B62B-29FC-4872-A084-82C75185509E Périphérique Début Fin Secteurs Taille Type /dev/sdb1 2048 4982527 4980480 2,4G RAID Linux /dev/sdb2 4982528 9176831 4194304 2G RAID Linux /dev/sdb5 9453280 11720838239 11711384960 5,5T RAID Linux /dev/sdb6 11720854336 19532653311 7811798976 3,7T RAID Linux Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs Disk model: WDC WD60EFRX-68L Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : F03B41BC-9C6E-4706-857D-B517112D25A0 Périphérique Début Fin Secteurs Taille Type /dev/sdd1 2048 4982527 4980480 2,4G RAID Linux /dev/sdd2 4982528 9176831 4194304 2G RAID Linux /dev/sdd5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs Disk model: WDC WD60EFRX-68L Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : 2E9D72A2-9C28-4CE0-927D-30D2FD424770 Périphérique Début Fin Secteurs Taille Type /dev/sde1 2048 4982527 4980480 2,4G RAID Linux /dev/sde2 4982528 9176831 4194304 2G RAID Linux /dev/sde5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs Disk model: WDC WD60EFRX-68L Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : BF41A830-908D-463A-B191-6E78D1F0187F Périphérique Début Fin Secteurs Taille Type /dev/sdc1 2048 4982527 4980480 2,4G RAID Linux /dev/sdc2 4982528 9176831 4194304 2G RAID Linux /dev/sdc5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs Disk model: USB DISK Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Type d'étiquette de disque : dos Identifiant de disque : 0x22525053 Périphérique Amorçage Début Fin Secteurs Taille Id Type /dev/sdg1 * 2048 15974399 15972352 7,6G c W95 FAT32 (LBA) Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs Disk model: CT500MX500SSD1 Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 512 octets taille d'E/S (minimale / optimale) : 512 octets / 512 octets Type d'étiquette de disque : dos Identifiant de disque : 0x202d6f19 Périphérique Amorçage Début Fin Secteurs Taille Id Type /dev/sdi1 2048 976768064 976766017 465,8G fd RAID Linux autodétecté Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs Disk model: CT500MX500SSD1 Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : dos Identifiant de disque : 0x1ded4186 Périphérique Amorçage Début Fin Secteurs Taille Id Type /dev/sdj1 2048 976768064 976766017 465,8G fd RAID Linux autodétecté Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs Disk model: WDC WD60EFRX-68M Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Type d'étiquette de disque : gpt Identifiant de disque : 420630F8-C753-4D72-8863-072D0FB98D7B Périphérique Début Fin Secteurs Taille Type /dev/sdh1 2048 4982527 4980480 2,4G RAID Linux /dev/sdh2 4982528 9176831 4194304 2G RAID Linux /dev/sdh5 9453280 11720838239 11711384960 5,5T RAID Linux Disque /dev/md3 : 3,65 TiB, 3999639994368 octets, 7811796864 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Disque /dev/md0 : 2,38 GiB, 2549940224 octets, 4980352 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Disque /dev/md4 : 465,78 GiB, 500103118848 octets, 976763904 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets Disque /dev/md2 : 32,74 TiB, 35977368305664 octets, 70268297472 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets Disque /dev/mapper/vg1000-lv : 36,37 TiB, 39977001943040 octets, 78080081920 secteurs Unités : secteur de 1 × 512 = 512 octets Taille de secteur (logique / physique) : 512 octets / 4096 octets taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets mount | grep /dev/sd | sort Pas de retour suite à la dernière commande.
  8. Or @IG-88 ? Can you help me to downgrade ?
  9. Salut, Mes disques sont SHR. J'ai tenté d'aller au bout mais je n'ai pas réussi. J'ai comme je te le disais un message qui me dit "assembly aborted" Après je ne sais pas comment accéder au différent fichier VERSION.. Je suis complètement largué... @Polanskiman pourrais-tu m'aider ?
  10. J'ai tenté ce qui est indiqué plus haut et cela n'a pas marché ... 😔 @EVOTk et tous les autres, je suis ouvert à toutes les solutions ...
  11. @EVOTk tu sèches comme moi ? ^^
  12. @EVOTk J'ai trouvé ça : Cela te paraît la chose à faire ? Uniquement sur les partitions sur lesquelles j'ai le message No super block found ?
  13. @EVOTk Bon j'ai fait suivi le tuto Mais sur la dernière commande j'ai : no super block found on /dev/sda1 puis assembly aborted Je le sens mal là ^^ Pour être sûr que cela n'a pas marché, comment j'accède au fichier version de chaque disque ? Je ne trouve pas le chemin d'accès
  14. Ah ok. Désolé pour la redite... Je regarde cela et je te dis ce qu'il en est. Merci
  15. Salut @EVOTk J'ai besoin d'un peu d'aide pour la compréhension... Je suis juste cela : 1. SSH into your NAS 2. Log On with your Admin/Root Account or User Account 3. If User Account then type sudo -i and enter the Admin/Root Password 4. Type ls -la / 5. You should see a folder called .xpenoboot 6. sudo rm -rf /.xpenoboot 7. Type ls -la / to check it is removed 8. Reboot your NAS by typing reboot Où je dois faire autre chose ? Pas évident de suivre son explication ^^
  16. Bonjour @nicoueron @EVOTk Bon j'ai fait le noob... Je n'ai pas regardé le forum avant de tenter l'upgrade en 6.2.4.25556... Résultat ? DSM innaccessible... Comment je peux restaurer mon DSM sans perdre mes données ? J'ai tenté de restaurer une sauvegarde de ma clé USB. J'ai réussi à détecter la restauration avec Synology Assistant. Celui-ci a tenté de rétablir le système mais cela a échoué. Depuis le redémarrage, je ne détecte plus rien... Je le sens mal ce coup-là...
  17. Salut @nicoueron Je connaissais déjà un peu les limites de Jellyfin mais poser la question me paraît toujours intéressant Je n'ai pas d'IOS donc pas ce problème 😏
  18. Ah non ! Les TV LG ne sont pas Android Elles sont sur WebOS ^^ Merci quand même pour ton retour
  19. Pour faire le lien des vidéos que tu regardes entre Plex, Jellyfin, et autres, tu fais ça à la mano ou tu utilises quelque chose en particulier ?
  20. J'avais devine pour le nombre que tu avais autant de TV 🤣 Non je voulais savoir si tu utilisais ta xiaomi box à d'autres fins ? Histoire de savoir si l'investissement vaut le coût.
  21. Tu utilises l'appli android du coup ? Elle te serve à quoi d'autre les Xiaomi Box ?
  22. Ok ! Et qu'utilises-tu pour voir Jellyfin sur une TV par ex LG ? J'ai regardé un peu sur le net mais je n'ai trouvé aucune solution appropriée.
  23. @EVOTk ça fonctionne maintenant sur Jellyfin Je trouve même que c'est plus réactif qu'avec Plex. De plus, avec Plex, en transcodage logiciel, c'est plus rapide que maintenant qu'"il y a le hw en fonctionnement 🤔 Après 2 min, en hw, Plex ne lançait toujours pas ma vidéo test... Tu trouves cela normal ?
×
×
  • Create New...