Jump to content
XPEnology Community
  • 0

Restauration DSM suite bug MàJ


Alandil

Question

Bonjour @nicoueron @EVOTk

 

Bon j'ai fait le noob... Je n'ai pas regardé le forum avant de tenter l'upgrade en 6.2.4.25556... Résultat ? DSM innaccessible... Comment je peux restaurer mon DSM sans perdre mes données ? J'ai tenté de restaurer une sauvegarde de ma clé USB. J'ai réussi à détecter la restauration avec Synology Assistant. Celui-ci a tenté de rétablir le système mais cela a échoué. Depuis le redémarrage, je ne détecte plus rien...

 

Je le sens mal ce coup-là...

Link to comment
Share on other sites

Recommended Posts

  • 0

Salut,

La procédure de downgrade est toujours la meme regarde ici par exemple :

 

Tu fait comme lui, avec le remplacement du fichier VERSION ... une fois le downgrade ok, tu fait la précédure qu'il décrit en dessus , soit la suppression du dossier /.xpenoboot et le reboot

Link to comment
Share on other sites

  • 0

Salut @EVOTk

 

J'ai besoin d'un peu d'aide pour la compréhension...

 

Je suis juste cela :

 

1. SSH into your NAS

2. Log On with your Admin/Root Account or User Account

3. If User Account then type sudo -i and enter the Admin/Root Password

4. Type ls -la /

5. You should see a folder called .xpenoboot

6. sudo rm -rf /.xpenoboot

7. Type ls -la / to check it is removed

8. Reboot your NAS by typing reboot

 

Où je dois faire autre chose ? Pas évident de suivre son explication ^^

Link to comment
Share on other sites

  • 0

COmme j'ai dit au dessus, il te faut d'abord faire la modif du fichier VERSION sur chaque disque !

Tu accede au disque/volume a l'aide de cette explication : https://xpenology.com/forum/topic/7004-tutorial-how-to-access-dsms-data-system-partitions/

 

Et tu fait ceci :

Citation

checksum.syno > Present dans le dossier Patch

syno/patch/* > Dossier renommer en old (au cas ou)

 

Remplacement du fichier VERSION présent dans le dossier /etc et /etc.defauls par celui du fichier .PAT (à ouvrir avec 7zip) présent ici: DSM_DS412+_25556.pat\hda1.tgz\hda1\etc.defaults\

 

Une fois cela fait, tu pourra ré-installer DSM 6.2.3

Une fois DSM 6.2.3 réinstallé et seulement la, tu pourra suivre cette procédure :

Citation

1. SSH into your NAS

2. Log On with your Admin/Root Account or User Account

3. If User Account then type sudo -i and enter the Admin/Root Password

4. Type ls -la /

5. You should see a folder called .xpenoboot

6. sudo rm -rf /.xpenoboot

7. Type ls -la / to check it is removed

8. Reboot your NAS by typing reboot

 

Link to comment
Share on other sites

  • 0

@EVOTk 

 

Bon j'ai fait suivi le tuto 

Il y a 1 heure, EVOTk a dit :

Tu accede au disque/volume a l'aide de cette explication : https://xpenology.com/forum/topic/7004-tutorial-how-to-access-dsms-data-system-partitions/

 

Mais sur la dernière commande j'ai :

no super block found on /dev/sda1 puis assembly aborted

 

Je le sens mal là ^^

 

Pour être sûr que cela n'a pas marché, comment j'accède au fichier version de chaque disque ? Je ne trouve pas le chemin d'accès

Edited by Alandil
Link to comment
Share on other sites

  • 0

Salut,

Je n'ai encore jamais eu besoin d'acceder a mes disques en dehors de DSM.

Mais la solution de @Polanskimanà travers ce tuto fonctionne bien https://xpenology.com/forum/topic/7004-tutorial-how-to-access-dsms-data-system-partitions/

Si tes disques sans en RAID, tu doit les placer ensemble dans la machine afin de remonter le RAID et pouvoir y acceder.

 

Ceci est hors de mon domaine de compétence, je n'utilise pas le RAID.

 

Link to comment
Share on other sites

  • 0

Salut,

 

Mes disques sont SHR. J'ai tenté d'aller au bout mais je n'ai pas réussi. J'ai comme je te le disais un message qui me dit "assembly aborted"

 

Après je ne sais pas comment accéder au différent fichier VERSION..

 

Je suis complètement largué...

 

@Polanskiman pourrais-tu m'aider ?

Link to comment
Share on other sites

  • 0
Il y a 21 heures, Alandil a dit :

Salut,

 

Mes disques sont SHR. J'ai tenté d'aller au bout mais je n'ai pas réussi. J'ai comme je te le disais un message qui me dit "assembly aborted"

 

Après je ne sais pas comment accéder au différent fichier VERSION..

 

Je suis complètement largué...

 

@Polanskiman pourrais-tu m'aider ?

Or @IG-88 ? Can you help me to downgrade ? 

Link to comment
Share on other sites

  • 0

Bonjour,

Le message "assembly aborted" est donné suite à quelle commande (je suppose que c'est mdadm) ?

Si c'est le cas, c'est qu'un des disques du RAID est en faute ou vu manquant.

Est-ce que tous les disques sont connectés lorsque tu démarre le linux de secours ? (RescueCD est très bien car tout ce qu'il faut pour monter un raid ou un LVM est présent de base).

Le raid SHR est une combinaison de raid soft (géré par mdadm) et de volumes dynamiques (gérés par vgchange).

Le but de la manip est de monter la grappe raid (commande mdadm -Asf) suivie si tout s'est bien passé (condition indiquée via &&) par l'assemblage des volumes (commande vgchange -ay).

Si un disque manque, le raid ne peut pas être monté (excepté en dégradé si seul un disque manque, mais dans ton cas ça pourrait suffire). Si le raid n'est pas monté, le volume ne peut pas être trouvé et rendu accessible par LVM.

Ce qui est possible c'est que si tu démarre le système via une clef USB, celle-ci soit vue comme un périphérique (/dev/sda peut-être ?) et pose un problème lors du scan des périphériques raid.

Peux-tu donner le résultat des commandes suivantes (à faire en tant que root (donc sur une version basée sur debian/ubuntu après la commande sudo -i) :

blkid

fdisk -l

mount | grep /dev/sd | sort

Avec ça; on devrait pouvoir identifier quels sont les disques réellement prévus pour être dans le raid SHR, et tenter d'assembler le raid de manière manuelle.

Jacques

 

 

 

Link to comment
Share on other sites

  • 0

Bonjour @JacquesF

 

Merci de prendre le temps de m'aider.

 

1 - J'ai ce message quand je réalise l'opération 8 du tuto 

à savoir :

Finally, assemble the array and fix the byte order (this is for my case, with 2 drives):

mdadm -AU byteorder /dev/md0 /dev/sda1 /dev/sdb1

 

2 - Tu me demandes si mes disques sont connectés physiquement ? C'est le cas. Reconnu par l'USB Live ? je le pense. 

 

root@ubuntu:/# fdisk -l | grep /dev/sd
Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
/dev/sda1           2048     4982527     4980480   2,4G RAID Linux
/dev/sda2        4982528     9176831     4194304     2G RAID Linux
/dev/sda5        9453280 11720838239 11711384960   5,5T RAID Linux
/dev/sda6    11720854336 19532653311  7811798976   3,7T RAID Linux
Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
/dev/sdf1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdf2    4982528     9176831     4194304     2G RAID Linux
/dev/sdf5    9453280 11720838239 11711384960   5,5T RAID Linux
Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
/dev/sdb1           2048     4982527     4980480   2,4G RAID Linux
/dev/sdb2        4982528     9176831     4194304     2G RAID Linux
/dev/sdb5        9453280 11720838239 11711384960   5,5T RAID Linux
/dev/sdb6    11720854336 19532653311  7811798976   3,7T RAID Linux
Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
/dev/sdd1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdd2    4982528     9176831     4194304     2G RAID Linux
/dev/sdd5    9453280 11720838239 11711384960   5,5T RAID Linux
Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
/dev/sde1       2048     4982527     4980480   2,4G RAID Linux
/dev/sde2    4982528     9176831     4194304     2G RAID Linux
/dev/sde5    9453280 11720838239 11711384960   5,5T RAID Linux
Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
/dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdc2    4982528     9176831     4194304     2G RAID Linux
/dev/sdc5    9453280 11720838239 11711384960   5,5T RAID Linux
Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs
/dev/sdg1    *         2048 15974399 15972352   7,6G  c W95 FAT32 (LBA)
Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs
/dev/sdi1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs
/dev/sdj1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté
Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
/dev/sdh1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdh2    4982528     9176831     4194304     2G RAID Linux
/dev/sdh5    9453280 11720838239 11711384960   5,5T RAID Linux

 

J'ai bien 7 disques de stockage (a, b, c, d, e, f et h), une clé USB Live (disque g) et 2 disques pour le cache (i et j).

 

3 - je n'ai aucune erreur avec la commande 

mdadm -Asf && vgchange -ay

 

4 - Voici le résultat des commandes que tu m'as demandé de réaliser

root@ubuntu:/# blkid
/dev/sda1: PARTUUID="41cf7fd0-bd67-4152-8253-4850a1c93160"
/dev/sda5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="2ccbcc25-59aa-4580-40d4-c07054deb89d" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="34d5089f-6b90-4f10-9e21-9c60efee9973"
/dev/sda6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="2e33e895-9e7a-b6b6-9399-0f9d8bf68c96" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="77852370-065e-4d61-9c1f-0bb2d0742aa9"
/dev/sdb1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="82eae24e-64c6-4255-a1a1-933774a47e64"
/dev/sdb5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="03be1d49-0248-ccd6-1e9a-7c397cd0e6d5" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="67382d2a-c68f-4253-b73c-a8adbc14583e"
/dev/sdb6: UUID="68d157a1-9499-0a0a-0420-b319ef82784a" UUID_SUB="516df4d5-330a-5ffc-61e8-a752b8cfa819" LABEL="Alandil_NAS:3" TYPE="linux_raid_member" PARTUUID="6a03d12e-4c09-45dc-8263-7a04d23a62ce"
/dev/sdc1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="9cafacca-efc9-49f6-8890-f91ca1ecbecb"
/dev/sdc5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="1f373b77-4038-6185-ce5c-8b65aa5219f8" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="46325df7-e5bd-4400-b2e6-76ee21fae78d"
/dev/sdd1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="f2661af2-db89-4b8f-bf48-4fac0f06787f"
/dev/sdd5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="5ae86e74-4f6e-0cdc-9f2e-d17c5bfe21cb" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="c71881c7-c627-4301-afcc-770141e84649"
/dev/sde1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="39c25baa-bbce-4c0f-9cef-7a135a7014a1"
/dev/sde5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="7a302bf2-3e49-4eed-2559-850d5d510ba4" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="16a43392-e406-47b1-8722-f2c7407cb0af"
/dev/sdf1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="eca249ef-7f6b-4890-a4a6-f367fc4ee50e"
/dev/sdf5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="68958a48-cce4-8701-cfda-ee08a78ab62f" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="55abce45-00bb-4f61-8870-deca3b76bf5d"
/dev/sdg1: LABEL="UBUNTU 20_0" UUID="AABD-0094" TYPE="vfat" PARTUUID="22525053-01"
/dev/loop0: TYPE="squashfs"
/dev/loop1: TYPE="squashfs"
/dev/loop2: TYPE="squashfs"
/dev/loop3: TYPE="squashfs"
/dev/loop4: TYPE="squashfs"
/dev/loop5: TYPE="squashfs"
/dev/sda2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="1068479d-8496-4b4d-b15f-032edc3e9b28"
/dev/sdf2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="905f11e9-5cdc-4978-bec4-b0a340bc8e50"
/dev/sdb2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="b69aa535-9806-44a2-a021-ecc7e7e3a101"
/dev/sdd2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e47407c1-4547-4a41-97ee-bcc7e95a292a"
/dev/sde2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="41de7299-08fa-41a8-9d9e-5e77a57cdace"
/dev/sdc2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="0ddee1c7-337d-4ce4-90ab-5a0ad0671bf1"
/dev/sdi1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="2452e62a-e02d-0da7-dd08-710497da9541" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="202d6f19-01"
/dev/sdj1: UUID="be177b80-4fe3-58f9-0257-75796eed0f26" UUID_SUB="d91e06e5-5f4d-8d76-9770-9f9941f4349b" LABEL="Alandil_NAS:4" TYPE="linux_raid_member" PARTUUID="1ded4186-01"
/dev/sdh1: UUID="227019f5-e7c1-3ffe-3017-a5a8c86610be" TYPE="linux_raid_member" PARTUUID="4c884ad5-b4ce-41cd-b68a-c3124401d86c"
/dev/sdh2: UUID="6a3ee910-0aaf-a95d-842e-829b3c4a51f2" TYPE="linux_raid_member" PARTUUID="e7ba4093-9204-4e48-bd27-8d554908d0eb"
/dev/sdh5: UUID="4426e79c-553d-795c-83f6-f45732f2032c" UUID_SUB="df5c6e01-7d73-c21e-99df-7eca5cef6e60" LABEL="Alandil_NAS:2" TYPE="linux_raid_member" PARTUUID="7595553a-6a70-43e5-a02b-9d1e6984498d"
/dev/md3: UUID="WgFywH-9l21-XASj-wJep-BM3z-HowW-d3rvfn" TYPE="LVM2_member"
/dev/md2: UUID="6es8uK-yH65-DGzj-qzJj-dxW2-QBYg-uCY4wN" TYPE="LVM2_member"
/dev/mapper/vg1000-lv: LABEL="2020.05.04-16:34:17 v24922" UUID="8347c7d0-87bc-40db-8204-acc930013969" UUID_SUB="4e214011-1024-40b1-8c3b-e89d35b0917d" TYPE="btrfs"

 

root@ubuntu:/# fdisk -l
Disque /dev/loop0 : 1,99 GiB, 2109763584 octets, 4120632 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop1 : 55,48 MiB, 58159104 octets, 113592 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop2 : 218,102 MiB, 229629952 octets, 448496 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop3 : 51,4 MiB, 53522432 octets, 104536 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop4 : 31,9 MiB, 32595968 octets, 63664 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/loop5 : 64,79 MiB, 67915776 octets, 132648 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/sda : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
Disk model: ST10000VN0004-1Z
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : E7F75365-30F8-4149-B570-CFB4467923F3

Périphérique       Début         Fin    Secteurs Taille Type
/dev/sda1           2048     4982527     4980480   2,4G RAID Linux
/dev/sda2        4982528     9176831     4194304     2G RAID Linux
/dev/sda5        9453280 11720838239 11711384960   5,5T RAID Linux
/dev/sda6    11720854336 19532653311  7811798976   3,7T RAID Linux


Disque /dev/sdf : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : CB508E68-6A35-4908-A6C1-34DA17ECCC3C

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdf1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdf2    4982528     9176831     4194304     2G RAID Linux
/dev/sdf5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sdb : 9,1 TiB, 10000831348736 octets, 19532873728 secteurs
Disk model: ST10000VN0004-1Z
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : FAD8B62B-29FC-4872-A084-82C75185509E

Périphérique       Début         Fin    Secteurs Taille Type
/dev/sdb1           2048     4982527     4980480   2,4G RAID Linux
/dev/sdb2        4982528     9176831     4194304     2G RAID Linux
/dev/sdb5        9453280 11720838239 11711384960   5,5T RAID Linux
/dev/sdb6    11720854336 19532653311  7811798976   3,7T RAID Linux


Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : F03B41BC-9C6E-4706-857D-B517112D25A0

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdd1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdd2    4982528     9176831     4194304     2G RAID Linux
/dev/sdd5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sde : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 2E9D72A2-9C28-4CE0-927D-30D2FD424770

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sde1       2048     4982527     4980480   2,4G RAID Linux
/dev/sde2    4982528     9176831     4194304     2G RAID Linux
/dev/sde5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : BF41A830-908D-463A-B191-6E78D1F0187F

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdc2    4982528     9176831     4194304     2G RAID Linux
/dev/sdc5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sdg : 7,63 GiB, 8178892800 octets, 15974400 secteurs
Disk model: USB DISK        
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x22525053

Périphérique Amorçage Début      Fin Secteurs Taille Id Type
/dev/sdg1    *         2048 15974399 15972352   7,6G  c W95 FAT32 (LBA)


Disque /dev/sdi : 465,78 GiB, 500107862016 octets, 976773168 secteurs
Disk model: CT500MX500SSD1  
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x202d6f19

Périphérique Amorçage Début       Fin  Secteurs Taille Id Type
/dev/sdi1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté


Disque /dev/sdj : 465,78 GiB, 500107862016 octets, 976773168 secteurs
Disk model: CT500MX500SSD1  
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x1ded4186

Périphérique Amorçage Début       Fin  Secteurs Taille Id Type
/dev/sdj1              2048 976768064 976766017 465,8G fd RAID Linux autodétecté


Disque /dev/sdh : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Disk model: WDC WD60EFRX-68M
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 420630F8-C753-4D72-8863-072D0FB98D7B

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdh1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdh2    4982528     9176831     4194304     2G RAID Linux
/dev/sdh5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/md3 : 3,65 TiB, 3999639994368 octets, 7811796864 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets


Disque /dev/md0 : 2,38 GiB, 2549940224 octets, 4980352 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets


Disque /dev/md4 : 465,78 GiB, 500103118848 octets, 976763904 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets


Disque /dev/md2 : 32,74 TiB, 35977368305664 octets, 70268297472 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets


Disque /dev/mapper/vg1000-lv : 36,37 TiB, 39977001943040 octets, 78080081920 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 393216 octets

 

mount | grep /dev/sd | sort

Pas de retour suite à la dernière commande.

Link to comment
Share on other sites

  • 0

Bon, à priori ton raid est monté...

Le système (DSM) est présent sur tous les disques (sauf ceux de cache et la clef USB bien sûr) dans la partition 1 (taille 2,4 Go).

C'est à dire, si je n'en ai pas oublié : sda1 / sdb1 / sdc1 / sdd1 / sde1 / sdf1 / sdh1

Le raid est assemblé correctement, puisqu'il y a un device md0 créé :

Disque /dev/md0 : 2,38 GiB, 2549940224 octets, 4980352 secteurs

La dernière commande donnée ne peut effectivement rien donner puisque le raid (et le LVM) ont l'air de fonctionner et que le grep filtre sur les périphériques de type disque (sdX), sort ne fait que trier pour faciliter la lecture.

Si tu tapes la commande mount | grep /dev/m on ne va afficher que les périphériques de type mdX (raid soft) et mapper (lvm).

Sur mon NAS, j'ai ce résultat (sur le LiveCD il est possible que tu n'aies rien, pas grave) :

root@Maison:/var/log# mount | grep /dev/m
/dev/md0 on / type ext4 (rw,relatime,journal_checksum,barrier,data=ordered)
/dev/md3 on /volume2 type btrfs (rw,relatime,synoacl,nospace_cache,metadata_ratio=50)
/dev/mapper/vg1-volume_1 on /volume1 type btrfs (rw,relatime,synoacl,nospace_cache,metadata_ratio=50)

Si ceux-ci sont montés, il y aura une sortie à cette commande, sinon il faudra monter le DSM (/dev/md0) à la main pour y accéder.

Si rien n'est monté, utilise cette commande pour accéder à ton DSM (en root) :

mkdir /mnt/dsm

mount /dev/md0 /mnt/nas

Dans le cas où le raid a été monté automatiquement par le LiveCD, il faut remplacer /mnt/nas dans les commandes qui suivent par le chemin qui correspond à md0 dans la sortie de la commande mount | grep /dev/m

Si la commande mount éventuelle ne retourne pas d'erreur, tu devrais pouvoir afficher ton fichier VERSION avec la commande :

cat /mnt/nas/etc/VERSION             ou cat /chemin/vers/point/de/montage/de/md0/etc/VERSION

Si le contenu semble correct (entre autre le productversion=6.X.X qui doit être la version que tu as installée), on va modifier la racine du système pour que les commandes des tutos ne soient pas à transposer à chaque fois (pour trouver les fichiers qui ne sont plus positionnés depuis la racine du DSM mais depuis le point de montage (/mnt/nas + le chemin DSM)) avec la commande :

chroot /mnt/nas

Si il n'y a pas d'erreur, tu peux maintenant te placer dans le répertoire etc du DSM avec la commande :

cd /etc

Vérifier le fichier VERSION avec :

cat VERSION

Si tout est OK (même contenu qu'avant), applique la procédure de nettoyage (fichier VERSION et répertoires de stockage des mises à jour à nettoyer).

Ensuite, sort de l'environnement "chrooté" avec la commande :

exit

Démonte le DSM avec :

umount /mnt/nas

Croise les doigts et redémarre le tout... puis réinstalle le DSM que tu avais avant la migration (et bien entendu ne pas répondre OK si on propose de formater la partition de données !).

 

Jacques

 

 

Edited by JacquesF
Link to comment
Share on other sites

  • 0

@JacquesF

il y a 5 minutes, JacquesF a dit :

mount /dev/md0 /mnt/nas

Je pense que tu voulais dire :

mount /dev/md0 /mnt/dsm

 

J'obtiens cette erreur...

root@ubuntu:/# mount /dev/md0 /mnt/dsm
mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

 

Edited by Alandil
Link to comment
Share on other sites

  • 0
il y a 3 minutes, JacquesF a dit :

J'ai modifié ma réponse ci-dessus, regarde si tu es concerné

J'ai été trop rapide par rapport à ta précédente réponse ;)

 

Alors j'obtiens ceci sur la première commande que tu me demandes :

root@ubuntu:/# mount | grep /dev/m
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)

Je comprends que je dois modifier ma commande mais avec quoi ?!

 

J'obtiens ceci avec l'autre commande :

root@ubuntu:/# mount -t ext4 /dev/md0 /mnt/dsm
mount: /mnt/dsm: wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

Ce qui est sensiblement identique à la précédente.

 

Voilà ce que j'obtiens :

root@ubuntu:/# cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4] 
md2 : active raid5 sda5[0] sdh5[7] sdf5[5] sde5[4] sdd5[3] sdc5[2] sdb5[1]
      35134148736 blocks super 1.2 level 5, 64k chunk, algorithm 2 [7/7] [UUUUUUU]
      
md4 : active raid1 sdi1[0] sdj1[1]
      488381952 blocks super 1.2 [2/2] [UU]
      
md0 : active raid1 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
      2490176 blocks [16/6] [UUUUUU__________]
      
md3 : active raid1 sda6[0] sdb6[1]
      3905898432 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

 

Link to comment
Share on other sites

  • 0

Voici @JacquesF

root@ubuntu:/# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,nosuid,nodev,noexec,relatime)
udev on /dev type devtmpfs (rw,nosuid,noexec,relatime,size=7974360k,nr_inodes=1993590,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755)
/dev/sdg1 on /cdrom type vfat (ro,noatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
/dev/loop0 on /rofs type squashfs (ro,noatime)
/cow on / type overlay (rw,relatime,lowerdir=/filesystem.squashfs,upperdir=/cow/upper,workdir=/cow/work)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime,nsdelegate)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
efivarfs on /sys/firmware/efi/efivars type efivarfs (rw,nosuid,nodev,noexec,relatime)
none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=28,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=19627)
mqueue on /dev/mqueue type mqueue (rw,nosuid,nodev,noexec,relatime)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
debugfs on /sys/kernel/debug type debugfs (rw,nosuid,nodev,noexec,relatime)
tracefs on /sys/kernel/tracing type tracefs (rw,nosuid,nodev,noexec,relatime)
configfs on /sys/kernel/config type configfs (rw,nosuid,nodev,noexec,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,nosuid,nodev,noexec,relatime)
tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime)
/var/lib/snapd/snaps/snap-store_518.snap on /snap/snap-store/518 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gnome-3-34-1804_66.snap on /snap/gnome-3-34-1804/66 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/core18_1988.snap on /snap/core18/1988 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/snapd_11036.snap on /snap/snapd/11036 type squashfs (ro,nodev,relatime,x-gdu.hide)
/var/lib/snapd/snaps/gtk-common-themes_1514.snap on /snap/gtk-common-themes/1514 type squashfs (ro,nodev,relatime,x-gdu.hide)
tmpfs on /run/user/999 type tmpfs (rw,nosuid,nodev,relatime,size=1604920k,mode=700,uid=999,gid=999)
gvfsd-fuse on /run/user/999/gvfs type fuse.gvfsd-fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999)
tmpfs on /run/snapd/ns type tmpfs (rw,nosuid,nodev,noexec,relatime,size=1604924k,mode=755)
nsfs on /run/snapd/ns/snap-store.mnt type nsfs (rw)
/dev/fuse on /run/user/999/doc type fuse (rw,nosuid,nodev,relatime,user_id=999,group_id=999)

 

Edited by Alandil
Link to comment
Share on other sites

  • 0
root@ubuntu:/# mdadm -E /dev/sd[a-f]1
mdadm: No md superblock detected on /dev/sda1.
/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
  Creation Time : Mon May  4 15:42:26 2020
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 16
  Total Devices : 7
Preferred Minor : 0

    Update Time : Wed Apr  7 08:15:21 2021
          State : clean
 Active Devices : 7
Working Devices : 7
 Failed Devices : 9
  Spare Devices : 0
       Checksum : 6bd905aa - correct
         Events : 6127801


      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
   4     4       8       65        4      active sync   /dev/sde1
   5     5       8       81        5      active sync   /dev/sdf1
   6     6       8       97        6      active sync   /dev/sdg1
   7     7       0        0        7      faulty removed
   8     8       0        0        8      faulty removed
   9     9       0        0        9      faulty removed
  10    10       0        0       10      faulty removed
  11    11       0        0       11      faulty removed
  12    12       0        0       12      faulty removed
  13    13       0        0       13      faulty removed
  14    14       0        0       14      faulty removed
  15    15       0        0       15      faulty removed
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
  Creation Time : Mon May  4 15:42:26 2020
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 16
  Total Devices : 7
Preferred Minor : 0

    Update Time : Wed Apr  7 08:15:21 2021
          State : clean
 Active Devices : 7
Working Devices : 7
 Failed Devices : 9
  Spare Devices : 0
       Checksum : 6bd905bc - correct
         Events : 6127801


      Number   Major   Minor   RaidDevice State
this     2       8       33        2      active sync   /dev/sdc1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
   4     4       8       65        4      active sync   /dev/sde1
   5     5       8       81        5      active sync   /dev/sdf1
   6     6       8       97        6      active sync   /dev/sdg1
   7     7       0        0        7      faulty removed
   8     8       0        0        8      faulty removed
   9     9       0        0        9      faulty removed
  10    10       0        0       10      faulty removed
  11    11       0        0       11      faulty removed
  12    12       0        0       12      faulty removed
  13    13       0        0       13      faulty removed
  14    14       0        0       14      faulty removed
  15    15       0        0       15      faulty removed
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
  Creation Time : Mon May  4 15:42:26 2020
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 16
  Total Devices : 7
Preferred Minor : 0

    Update Time : Wed Apr  7 08:15:21 2021
          State : clean
 Active Devices : 7
Working Devices : 7
 Failed Devices : 9
  Spare Devices : 0
       Checksum : 6bd905ce - correct
         Events : 6127801


      Number   Major   Minor   RaidDevice State
this     3       8       49        3      active sync   /dev/sdd1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
   4     4       8       65        4      active sync   /dev/sde1
   5     5       8       81        5      active sync   /dev/sdf1
   6     6       8       97        6      active sync   /dev/sdg1
   7     7       0        0        7      faulty removed
   8     8       0        0        8      faulty removed
   9     9       0        0        9      faulty removed
  10    10       0        0       10      faulty removed
  11    11       0        0       11      faulty removed
  12    12       0        0       12      faulty removed
  13    13       0        0       13      faulty removed
  14    14       0        0       14      faulty removed
  15    15       0        0       15      faulty removed
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
  Creation Time : Mon May  4 15:42:26 2020
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 16
  Total Devices : 7
Preferred Minor : 0

    Update Time : Wed Apr  7 08:15:21 2021
          State : clean
 Active Devices : 7
Working Devices : 7
 Failed Devices : 9
  Spare Devices : 0
       Checksum : 6bd905e0 - correct
         Events : 6127801


      Number   Major   Minor   RaidDevice State
this     4       8       65        4      active sync   /dev/sde1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
   4     4       8       65        4      active sync   /dev/sde1
   5     5       8       81        5      active sync   /dev/sdf1
   6     6       8       97        6      active sync   /dev/sdg1
   7     7       0        0        7      faulty removed
   8     8       0        0        8      faulty removed
   9     9       0        0        9      faulty removed
  10    10       0        0       10      faulty removed
  11    11       0        0       11      faulty removed
  12    12       0        0       12      faulty removed
  13    13       0        0       13      faulty removed
  14    14       0        0       14      faulty removed
  15    15       0        0       15      faulty removed
/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 227019f5:e7c13ffe:3017a5a8:c86610be
  Creation Time : Mon May  4 15:42:26 2020
     Raid Level : raid1
  Used Dev Size : 2490176 (2.37 GiB 2.55 GB)
     Array Size : 2490176 (2.37 GiB 2.55 GB)
   Raid Devices : 16
  Total Devices : 7
Preferred Minor : 0

    Update Time : Wed Apr  7 08:15:21 2021
          State : clean
 Active Devices : 7
Working Devices : 7
 Failed Devices : 9
  Spare Devices : 0
       Checksum : 6bd905f2 - correct
         Events : 6127801


      Number   Major   Minor   RaidDevice State
this     5       8       81        5      active sync   /dev/sdf1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       33        2      active sync   /dev/sdc1
   3     3       8       49        3      active sync   /dev/sdd1
   4     4       8       65        4      active sync   /dev/sde1
   5     5       8       81        5      active sync   /dev/sdf1
   6     6       8       97        6      active sync   /dev/sdg1
   7     7       0        0        7      faulty removed
   8     8       0        0        8      faulty removed
   9     9       0        0        9      faulty removed
  10    10       0        0       10      faulty removed
  11    11       0        0       11      faulty removed
  12    12       0        0       12      faulty removed
  13    13       0        0       13      faulty removed
  14    14       0        0       14      faulty removed
  15    15       0        0       15      faulty removed

 

Edited by Alandil
Link to comment
Share on other sites

  • 0

Bon, sda1 n'est as en forme et sdg1 qui n'a pas été affiché dans le raid md0 (dans mdstat) est bien listé dans le superblock comme faisant partie du raid.

Tu peux donner le résultat de mdadm -E /dev/sdg1

Si c'est du même type que les autres disques, on va essayer de le rajouter dans le raid et de déclarer sda1 en faute, ce qui devrait permettre de monter le raid.

Maintenant, c'est quand même étrange que ce disque soit en faute si tu n'as rien fait d'autre qu'installer le DSM.

Link to comment
Share on other sites

  • 0

Ce qui est curieux aussi c'est qu'on ne voit pas le disque sdh1 qui est pourtant présent avec la commande fdisk 🤔

 

root@ubuntu:/# mdadm -E /dev/sd[g-h]1
/dev/sdg1:
   MBR Magic : aa55
Partition[0] :    432871117 sectors at   3224498923 (type 07)
Partition[1] :   1953460034 sectors at   3272020941 (type 16)
Partition[3] :    924335794 sectors at     50200576 (type 00)
mdadm: No md superblock detected on /dev/sdh1.

 

L'ensemble de ces disques ne m'a servi qu'à mon Xpenology et à mon Synology avant lui.

Edited by Alandil
Link to comment
Share on other sites

  • 0

Si je lis bien ça, il y a un superblock de créé pour sdg1 mais aucune données dedans.

Je n'ai pas une énorme habitude de mdadm, et ce sont des commandes à risque...

Ce que j'ai l'impression de comprendre en voyant le résultat des commandes est que :

- la référence aux disques dans le superblock indique les affectations avec le NAS fonctionnant correctement (disques A à G soit 7 disques)

- le DVD Ubuntu est vu sur le disque sdg, ce qui explique que sdg1 soit de type vfat (est-ce une clef USB ?) et donc ne comporte pas d'informations sur le raid

Peux-tu me dire ce que contient le fichier mdadm.conf de ton Ubuntu (il peut ne pas exister) :

cat /etc/mdadm.conf

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Answer this question...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...