Jump to content
XPEnology Community
  • 0

Disque dur en panne sur ESXI


sango
 Share

Question

Bonjour,

 

J'utilise depuis en bon moment Xepenlogy sur une machine dédiée Kimsufi avec ESXI 6.0.

Suite à une malveillance de ma part, la datastore de mon esxi est arriver à saturation ce qui a mis certain VM en pause, mes a fait planter mon volume sur le DSM en m’indiquant en panne, alors que celui-ci n’a aucun problème.

Je ne peux pas rajouter un disque dur pour refaire un volume par manque d’espace disque sur le dédier.

J’ai certes des sauvegardes, mes il s’agis juste d’un problème d’affichage, car tout fonctionne bien sinon, les données sont bien toute la.

 

Y a-t-il une commande SSH ou autre qui pourrait réinitialiser ce paramètre ?

 

Merci d’avance

volumenepanne2.png

volumenepanne.png

Link to comment
Share on other sites

5 answers to this question

Recommended Posts

  • 0

Hello,

 

Pour info un mount un ssh me donne :

 


/dev/md5 on /volume4 type btrfs (ro,relatime,synoacl,nospace_cache,auto_reclaim_space,ordered_extent_throttle=400000,metadata_ratio=50)

 

Je vois bien mon volume en lecture seul j'ai tenté de le repassé en rw, avec cette commande : sudo  mount -o remount, rw -t /dev/md5 /volume4

il passe bien en RW mes au reboot il repasse en ro.

 

il doit bien y avoir une fichu commande pour remettre le disque en correct ...
 

J'ai bien toute mes sauvegarde mes si il faut que je remonte 600Go sur une connection ADSL je vous laisse imaginé ...

 

Merci en tout cas.

Link to comment
Share on other sites

  • 0

Slaut,

 

As-tu essayé de mettre ce paramétrage dans le fichier /etc/fstab ? Après je ne comprend pas trop l'intérêt de vouloir le repasser manuellement en écriture, le pb semble lié au fichier vmdk.

Essaie ceci : https://pchawda.wordpress.com/2017/06/12/fixing-broken-corrupted-vmdk-disk-image/

 

Par ailleurs, un NAS doit s'appuyer sur une configuration RAID, y mettre une seul disque n'a pas de sens (hormis pour faire un test). Dans ton cas, le plus prudent est de te procurer un deuxième disque de 1To et tu montes un SHR ou RAID1 afin qu'il répare les données si besoin et au pire cela ne t'apportera que du +.

 

Pour ma gouverne, c'est quoi le disque de 24Go "initialisé" ?

Link to comment
Share on other sites

  • 0

Salut,

Merci pour ta réponse je test ta solution dans la soirée j'ai pas tenté directement dans le fstab.

 

Le pb de la config RAID je veux bien mes j'ai que 1 disque sur cette machine que je loue a Kimsufi du coup pas trop le choix de faire une autre config et pas assez d'espace disque pour faire 2vmdk de 1to ...

 

J'ai une synchro qui ce fait de mon NAS au NAS de Kimsufi qui fonctionne depuis pas mal de temps.

 

Concernant le disque de 24Go il s'agit des divers installations applications et système du NAS, ou j'ai trouver plus judicieux de séparer data et system.

 

Merci de ta réponse

 

Edited by sango
Link to comment
Share on other sites

  • 0

hello 

 

 

Donc coté vmdk RAS pas d'erreur.

 

Je vais jouer ma procédure de reinit disque.

Vu que j'ai encore accès a mes donnée a mon avis ça pourrait resté comme ça mes c très moche ...

J'ai un autre dédié d'un pote, je vais monté un DD en ISCSI sur ESI l'attribué a la VM du NAS refaire un volume copier le contenu 

Supprimer le volume pourris et le refaire puis recopier les donnée dessus.

 

Bémol : la bande passante + de 1 jours de copie a chaque fois :(

 

Tout ça pour une bêtise d'espace disque sur l'hôte principal ESXI.

Si tu a une autre idé d'ici 21h je suis preneur sinon je lance la suppression du volume

@ toute

 

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Answer this question...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

×
×
  • Create New...