chlotus Posted April 29, 2014 Share #1 Posted April 29, 2014 Bnjour à tous, J'ai installé le DSM 5 mise à jour paquet c'est Ok ! Le problème vient du gestionnaire de stockage SHR, un premier disque de 2 T, ensuite un deuxième (2T) et les 4 autres de 3T. Statut normal pour les 6 disques, le truc étrange c'est qu'il m'appose la liste à l'envers c'est à dire les deux premiers disques à la fin ! En suggestion il me propose de passer le volume à environ 12086 GO ! Je lance la procédure, gérer, étendre; il se lance et il plante ! Ce fut le même cas de figure qu'avec le DSM 4. Tous les disques ont été reformater en ext4 avec mon deuxième nas Synology. Vous trouverez le print ci dessous ! J'ai revérifier la configuration du bios, le boot avec gnoboot tout est Ok ! Je ne sais d’où cela peut venir ! Merci pour votre aide. Cordialement Link to comment Share on other sites More sharing options...
kornflex Posted April 29, 2014 Share #2 Posted April 29, 2014 Salut, Tu devrais regarder les logs dans /var/log. Peut être qu'il y en a un qui serait parlant sur le problème qu'il rencontre. Link to comment Share on other sites More sharing options...
K-Li Posted April 30, 2014 Share #3 Posted April 30, 2014 as-tu essayé avec un autre sysème RAID ? (RAID 5 ou 0...), on ne sait jamais... Link to comment Share on other sites More sharing options...
chlotus Posted May 2, 2014 Author Share #4 Posted May 2, 2014 Merci à vous tous pour vos messages ! Oui j'ai essayé le raid 5, le Jbod également tout fonctionne. Ce qui m'intéresse c'est le SHR il y a trop de pertes d'espace stockage avec les autres types de raids. J'ai reformater tous les disques en bas niveau, refais toute l'instalation pour l'instant j'en suis à 4 disques tout se passe bien pour le moment, croisons les doigts ;) je vous tiens au courant dès que l'instalation sera terminée. Cordialement Link to comment Share on other sites More sharing options...
chlotus Posted May 9, 2014 Author Share #5 Posted May 9, 2014 Bonjour à tous, Je me réponds à moi même afin d'apporter mon expérience à ce sujet si cela peut servir. Cet essai c'est effectué sur deux Proliant le N40 L et N54L. Au terme des instalations impossible d'étendre les volumes avec les configurations disques comme ci dessus ou avec 6 disques de 3 T. C'est dans cette dernière configuration que j'ai trouvé le bon compromis avec le raid 5 qui est à l'identique en tout cas au niveau de de l'espace disponible, de l'espace utilisé pour la protection et la marge de défaillance sur un disque ! J'ai silloné les forums, les tutos et compagnie, je n'ai eu connaissance de ce phénomène sur ces deux modèles Proliant utilisant Xpenology ! Voici mon retour d'expérience sur une bonne quinzaine d'essais ! Cordialement à vous tous. Chlotus Link to comment Share on other sites More sharing options...
grouik1er Posted June 12, 2014 Share #6 Posted June 12, 2014 Bonjour, Je viens de remarquer ce problème à mon tour, j'ai une grappe de 6 disques de 4 To en SHR, en rajoutant le 6éme disque j'ai remarqué de l'espace disponible était toujours bloqué à 14 To et des poussières. Pourtant il m'a bien proposé d’étendre le volume à 18go, a passé 24H à vérifier le bouzin mais je reste bloqué à 14 To... L’embattant c'est que j'ai plus de 10 To de données dessus. Je ne vois pas de solution du coup Link to comment Share on other sites More sharing options...
F5BJR Posted June 12, 2014 Share #7 Posted June 12, 2014 * Essayer avec un autre disque ?? Link to comment Share on other sites More sharing options...
grouik1er Posted June 13, 2014 Share #8 Posted June 13, 2014 Je viens de regarder les logs par un cat /var/log/messages et j'ai bien un souci: Jun 12 07:44:03 Xpenology kernel: [126572.462253] EXT4-fs warning (device dm-1): ext4_resize_fs:1997: No reserved GDT blocks, can't resize Jun 12 07:44:03 Xpenology volumehandler.cgi: (fs_vol_expand.c)ExtFSExpand(88):Failed to '/sbin/resize2fs -fpF /dev/vg1/volume_1 > /dev/null 2>&1', WEXITSTATUS® = 1 Jun 12 07:44:03 Xpenology volumehandler.cgi: volume_manage_with_temp_dev.c:279 Failed to expand file system on /dev/vg1/volume_1 Jun 12 07:44:03 Xpenology volumehandler.cgi: volume_lib.cpp:952 Failed to expand file system on /dev/vg1/volume_1 Jun 12 07:44:03 Xpenology volumehandler.cgi: volumehandler.cpp:331 failed to expand unallocated file system: /volume1 je pars googliser tout cela http://hpics.li/9d650f2 http://hpics.li/c9f0785 PS: ça tourne sous gnoboot et 4458 update 2 Link to comment Share on other sites More sharing options...
Recommended Posts